分类: AI

13 篇文章

.net 调用 llama.cpp
using LLama; using LLama.Common; using LLama.Sampling; // 引用 LLamaSharp, LLamaSharp.Backend.Cpu // 这个例子中,内存使用的 4 个G // Llava 调用的例子,新版本中被移除 // scisharp.github.io/LLamaSharp/0.2…
PWSH AI 查词、发音
演示如何使用 powershell 编写调用 AI 查询单词释义、调用 TTS 生成发音文件并进行播放的例子 可以定义 shell 环境, code $PROFILE 加入快捷调用函数,比如 wd word (脚本见最后) 单词查询脚本 <# .DESCRIPTION 查询单词 .EXAMPLE .\SearchWork.ps1 -word …
PWSH 调用 AI
微软有一个 AISH 工具,但是命令行调用功能不完善。下面使用 https://github.com/chenxizhang/openai-powershell​ ‍ 安装 # 安装 Install-Module -Name code365scripts.openai -Scope CurrentUser #更新 Update-Module -Na…
.net 进程内调用 MCP 服务器
.net 进程内调用 MCP 服务器 可以在程序内部创建一个 MCP Server 与 MCP Client, 然后通过 Pipe 的方式调用 await using var serviceProvider = this.CreateServiceProviderCore(); var loggerFactory = serviceProvider…
.net MCP Sampling (MCP Server 回调客户端 LLM)
MCP 协议中提供了一种机制 ,通过在 MCP client 中设置,可以为 MCP 服务端提供调用 LLM 的桥梁。 在 .net 中的处理流程就是 MCP Client 中配置回调机制,然后在 MCP Server 工具类 中注入 McpServer 对象,然后调用 var chatClient = thisServer.AsSamplingC…
提示工程指南总结
https://www.promptingguide.ai/zh​ ‍ 模型设置说明 在使用大语言模型(LLM)时,可通过调整以下参数来控制生成结果的风格、长度和多样性。建议每次只调整一个参数,以便更清楚地观察效果。 Temperature(温度) 控制生成文本的随机性,取值范围通常为 0.0 到 2.0。值越低(如 0.1),输出越确定、聚焦,适…
.net 开发 MCP 客户端
创建 MCP client # 如果调用本地开发项目,使用如下调用参数 Command = "dotnet", Arguments = ["run", "--project", GetMcpServerProjectDirectory(),], # 使用标准输入/输出(Stdio)传输作为…
.net 开发 MCP 服务器
.net 开发 MCP 服务器 微软手册 :快速入门 - 创建最小 MCP 服务器并发布到 NuGet - .NET | Microsoft Learn 官方库:https://github.com/modelcontextprotocol/csharp-sdk 我目前使用微软的库实现,官方库以后再研究 ‍ 安装 安装服务模板 dotnet new…
.net AI 向量搜索
使用 InMemoryVectorStore 做向量数据存储 使用 ollama + embeddinggemma 进行向量计算 处理过程 // 这里使用 ollama + embeddinggemma await using var serviceProvider = this.CreateServiceProviderCore(it =>…
.net AI 返回结构化结果
返回结构化结果需要对应的 AI 支持 (OpenAI),发出请求时指定 response_format 为 json_schema, 然后 json_schema 属性指定返回的结构 可以通过修改提示词,强制要求返回结构化结果,在某些 AI 上,它还是会返回兼容结果,从而成功运行。测试时在 ollama + phi4, 通义上都正常的返回指定的结构…