.net MCP Sampling (MCP Server 回调客户端 LLM)
MCP 协议中提供了一种机制 ,通过在 MCP client 中设置,可以为 MCP 服务端提供调用 LLM 的桥梁。 在 .net 中的处理流程就是 MCP Client 中配置回调机制,然后在 MCP Server 工具类 中注入 McpServer 对象,然后调用 var chatClient = thisServer.AsSamplingC…
2025-10-07 0:59
|
9
|
|
261 字
|
7 分钟
提示工程指南总结
https://www.promptingguide.ai/zh 模型设置说明 在使用大语言模型(LLM)时,可通过调整以下参数来控制生成结果的风格、长度和多样性。建议每次只调整一个参数,以便更清楚地观察效果。 Temperature(温度) 控制生成文本的随机性,取值范围通常为 0.0 到 2.0。值越低(如 0.1),输出越确定、聚焦,适…
2025-10-06 13:54
|
5
|
|
10506 字
|
48 分钟
.net 开发 MCP 客户端
创建 MCP client # 如果调用本地开发项目,使用如下调用参数 Command = "dotnet", Arguments = ["run", "--project", GetMcpServerProjectDirectory(),], # 使用标准输入/输出(Stdio)传输作为…
2025-10-01 15:25
|
23
|
|
145 字
|
4 分钟
.net 开发 MCP 服务器
.net 开发 MCP 服务器 微软手册 :快速入门 - 创建最小 MCP 服务器并发布到 NuGet - .NET | Microsoft Learn 官方库:https://github.com/modelcontextprotocol/csharp-sdk 我目前使用微软的库实现,官方库以后再研究 安装 安装服务模板 dotnet new…
2025-9-26 0:38
|
58
|
|
769 字
|
8 分钟
.net AI 向量搜索
使用 InMemoryVectorStore 做向量数据存储 使用 ollama + embeddinggemma 进行向量计算 处理过程 // 这里使用 ollama + embeddinggemma await using var serviceProvider = this.CreateServiceProviderCore(it =>…
2025-9-15 18:07
|
120
|
|
98 字
|
4 分钟
.net AI 返回结构化结果
返回结构化结果需要对应的 AI 支持 (OpenAI),发出请求时指定 response_format 为 json_schema, 然后 json_schema 属性指定返回的结构 可以通过修改提示词,强制要求返回结构化结果,在某些 AI 上,它还是会返回兼容结果,从而成功运行。测试时在 ollama + phi4, 通义上都正常的返回指定的结构…
2025-9-15 13:24
|
111
|
|
217 字
|
5 分钟
shell 中调用 AI
微软的方案 https://learn.microsoft.com/zh-cn/powershell/utility-modules/aishell/overview?view=ps-modules windows 可以直接整合入 pwsh, linux 目前只能运行独立版本 linux 下,直接下载,解压缩,运行 aish。或是加入到全局路径中 …
2025-7-14 1:20
|
479
|
|
130 字
|
2 分钟
AI 自动化工具
源LLM友好型网页爬虫和抓取工具 https://github.com/unclecode/crawl4ai 可以将用户界面屏幕截图解析为结构化且易于理解的元素 https://github.com/microsoft/OmniParser 使用说明 https://zhuanlan.zhihu.com/p/24662930428
2025-4-06 21:10
|
600
|
|
63 字
|
几秒读完
ollama 常用命令
官网 https://ollama.com/ 修改监听 地址 : windows `[System.Environment]::SetEnvironmentVariable('OLLAMA_HOST', '0.0.0.0', 'Machine')` # 监听地址 `[System.Envi…
2024-11-08 1:28
|
762
|
|
436 字
|
5 分钟