Skip to content

🧠 智能环境感知问答

AIS 的智能问答功能通过深度环境感知,提供基于实际系统状态的精准技术建议。AI不仅了解你的问题,更了解你的环境。

🤖 核心特性 (v2.4.0+)

🔍 智能上下文感知

  • 系统状态感知:自动检测CPU、内存、网络、服务状态
  • 项目环境识别:智能识别技术栈、Git状态、项目类型
  • 三级配置系统:minimal/standard/detailed可配置收集级别
  • 环境感知回答:基于实际配置提供针对性优化建议

🚀 传统问答功能

  • 即时问答:快速获取技术问题的答案
  • 多模型支持:支持 OpenAI、Claude、Ollama 等多种 AI 模型
  • 流式输出:实时显示 AI 处理进度
  • 历史记录:保存问答历史,便于回顾

🚀 基本使用

🖥️ 智能环境感知问答 (新特性)

bash
# 系统状态感知问答
ais ask "我的系统配置如何?硬件性能怎么样?"
# AI会自动分析CPU、内存、磁盘等硬件信息

ais ask "我的网络连接正常吗?有什么安全建议?"  
# AI会检测网络连通性和开放端口安全性

ais ask "当前系统开放了哪些端口?这些端口安全吗?"
# AI会分析监听端口和运行服务的安全性

# 项目环境感知问答
ais ask "基于我当前的系统环境,如何优化这个Python项目?"
# AI会结合硬件配置、项目类型提供优化建议

ais ask "我在什么分支?有什么修改吗?"
# AI会自动读取Git状态并回答

📚 传统技术问答 (仍然支持)

bash
# 基本问答
ais ask "如何使用 Docker 创建容器?"

# 询问编程问题
ais ask "Python 中如何处理异常?"

# 询问系统问题
ais ask "如何查看 Linux 系统的内存使用情况?"

⚙️ 上下文级别配置

bash
# 配置ask问答的上下文收集级别
ais config --set context_level=minimal   # 基础:系统信息+网络+服务
ais config --set context_level=standard  # 标准:+项目类型+Git状态
ais config --set context_level=detailed  # 详细:+权限信息+完整环境

# 查看当前配置
ais config

# 查看ask详细帮助
ais ask --help-detail

🎯 高级功能

多轮对话

bash
# 开始对话
ais ask "什么是 Kubernetes?"

# 继续对话
ais ask "如何部署应用到 Kubernetes?"

# 深入探讨
ais ask "Kubernetes 和 Docker 有什么区别?"

技术领域问答

bash
# 前端开发
ais ask "React 中如何实现状态管理?"

# 后端开发
ais ask "如何设计 RESTful API?"

# 数据库
ais ask "MySQL 和 PostgreSQL 有什么区别?"

# 运维
ais ask "如何监控服务器性能?"

🧠 智能上下文感知系统

📊 系统基础信息 (minimal级别包含)

AIS 会自动收集丰富的系统环境信息:

bash
# 系统详情
 操作系统发行版和内核版本 (uname -a)
 CPU核心数和详细型号
 内存使用状态 (总内存/已用/可用)
 磁盘使用情况和系统负载

# 网络状态  
 互联网连通性检测 (ping 8.8.8.8)
 监听端口列表和安全分析
 运行的系统服务信息

# 项目环境
 当前工作目录和用户信息
 Git分支和状态信息  
 项目类型自动识别 (Python/Node.js/Docker等)

📈 三级上下文收集

级别包含信息适用场景
minimal系统状态、网络、服务、基础Git性能优先,基础环境感知
standard+项目详情、文件列表、命令历史平衡性能与功能,推荐设置
detailed+权限信息、详细网络、完整环境完整诊断,深度分析需求

个性化回答

bash
# 基于您的技能水平调整回答深度
ais ask "如何学习 Docker?"
# 回答会根据您的历史问题和错误分析调整复杂度

# 基于您的项目环境提供针对性建议
ais ask "如何优化这个应用?"
# 回答会考虑您的项目类型、技术栈和配置

🔧 配置选项

基本配置

bash
# 查看当前配置
ais config

# 设置上下文收集级别
ais config --set context_level=standard

# 查看配置帮助
ais config --help-context

🎨 输出格式

Rich 格式输出

bash
# 默认使用 Rich 格式,包含:
- 彩色语法高亮
- 代码块美化
- 表格和列表格式化
- 进度条和状态提示

流式输出

AIS 问答支持流式输出,您可以实时看到 AI 回答的生成过程,提供更好的交互体验。

📚 使用场景

开发者

bash
# 调试帮助
ais ask "这个错误是什么意思:ImportError: No module named 'requests'"

# 代码优化
ais ask "如何优化这段 Python 代码的性能?"

# 架构设计
ais ask "如何设计一个高并发的 Web 服务?"

系统管理员

bash
# 系统诊断
ais ask "服务器 CPU 使用率过高怎么办?"

# 配置管理
ais ask "如何配置 Nginx 反向代理?"

# 安全问题
ais ask "如何加强 Linux 服务器的安全性?"

学习者

bash
# 概念理解
ais ask "什么是微服务架构?"

# 技术选型
ais ask "Python 和 Java 哪个更适合后端开发?"

# 最佳实践
ais ask "Web 开发有哪些最佳实践?"

🔍 问答历史

查看历史

bash
# 查看最近的历史记录
ais history --limit 10

# 搜索历史记录
ais history --command-filter "docker"

# 查看失败的命令
ais history --failed-only

🤝 多 AI 提供商支持

OpenAI

bash
# 配置 OpenAI
ais provider-add openai \
  --url https://api.openai.com/v1/chat/completions \
  --model gpt-3.5-turbo \
  --key YOUR_API_KEY

# 使用 OpenAI
ais provider-use openai
ais ask "测试 OpenAI 连接"

Claude

bash
# 配置 Claude
ais provider-add claude \
  --url https://api.anthropic.com/v1/messages \
  --model claude-3-sonnet-20240229 \
  --key YOUR_API_KEY

# 使用 Claude
ais provider-use claude
ais ask "测试 Claude 连接"

Ollama(本地)

bash
# 配置 Ollama
ais provider-add ollama \
  --url http://localhost:11434/v1/chat/completions \
  --model llama2

# 使用 Ollama
ais provider-use ollama
ais ask "测试本地 AI 连接"

🔒 隐私保护

敏感信息过滤

AIS 会自动过滤敏感信息,如 API 密钥、密码等,确保您的隐私安全。

本地 AI 使用

bash
# 使用本地 AI 模型保护隐私
ais provider-use ollama
ais ask "这样就不会向外部服务发送数据"

🎓 学习集成

与学习系统结合

bash
# 基于问答生成学习内容
ais ask "什么是 Docker?"
# 然后运行: ais learn docker

# 先问后学的学习模式
ais ask "Kubernetes 有哪些核心概念?"
ais learn kubernetes

下一步


提示

AI 问答功能会随着使用变得更加智能,建议开启上下文感知以获得更好的体验。

上下文感知

AIS 会自动收集环境信息来提供更准确的回答,您可以在配置中调整收集级别。

注意

使用外部 AI 服务时,请注意数据隐私。推荐使用本地 AI 模型处理敏感信息。

基于 MIT 许可证发布