分类: AI

9 篇文章

.net MCP Sampling (MCP Server 回调客户端 LLM)
MCP 协议中提供了一种机制 ,通过在 MCP client 中设置,可以为 MCP 服务端提供调用 LLM 的桥梁。 在 .net 中的处理流程就是 MCP Client 中配置回调机制,然后在 MCP Server 工具类 中注入 McpServer 对象,然后调用 var chatClient = thisServer.AsSamplingC…
提示工程指南总结
https://www.promptingguide.ai/zh​ ‍ 模型设置说明 在使用大语言模型(LLM)时,可通过调整以下参数来控制生成结果的风格、长度和多样性。建议每次只调整一个参数,以便更清楚地观察效果。 Temperature(温度) 控制生成文本的随机性,取值范围通常为 0.0 到 2.0。值越低(如 0.1),输出越确定、聚焦,适…
.net 开发 MCP 客户端
创建 MCP client # 如果调用本地开发项目,使用如下调用参数 Command = "dotnet", Arguments = ["run", "--project", GetMcpServerProjectDirectory(),], # 使用标准输入/输出(Stdio)传输作为…
.net 开发 MCP 服务器
.net 开发 MCP 服务器 微软手册 :快速入门 - 创建最小 MCP 服务器并发布到 NuGet - .NET | Microsoft Learn 官方库:https://github.com/modelcontextprotocol/csharp-sdk 我目前使用微软的库实现,官方库以后再研究 ‍ 安装 安装服务模板 dotnet new…
.net AI 向量搜索
使用 InMemoryVectorStore 做向量数据存储 使用 ollama + embeddinggemma 进行向量计算 处理过程 // 这里使用 ollama + embeddinggemma await using var serviceProvider = this.CreateServiceProviderCore(it =>…
.net AI 返回结构化结果
返回结构化结果需要对应的 AI 支持 (OpenAI),发出请求时指定 response_format 为 json_schema, 然后 json_schema 属性指定返回的结构 可以通过修改提示词,强制要求返回结构化结果,在某些 AI 上,它还是会返回兼容结果,从而成功运行。测试时在 ollama + phi4, 通义上都正常的返回指定的结构…
shell 中调用 AI
微软的方案 https://learn.microsoft.com/zh-cn/powershell/utility-modules/aishell/overview?view=ps-modules windows 可以直接整合入 pwsh, linux 目前只能运行独立版本 linux 下,直接下载,解压缩,运行 aish。或是加入到全局路径中 …
AI 自动化工具
源LLM友好型网页爬虫和抓取工具 https://github.com/unclecode/crawl4ai 可以将用户界面屏幕截图解析为结构化且易于理解的元素 https://github.com/microsoft/OmniParser 使用说明 https://zhuanlan.zhihu.com/p/24662930428
ollama 常用命令
官网 https://ollama.com/ 修改监听 地址 : windows `[System.Environment]::SetEnvironmentVariable('OLLAMA_HOST', '0.0.0.0', 'Machine')` # 监听地址 `[System.Envi…