一、spring-ai实现对话机器人
step1.引入spring-ai的依赖管理项
<dependencyManagement><dependencies><dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-bom</artifactId><version>${spring-ai.version}</version><type>pom</type><scope>import</scope></dependency></dependencies></dependencyManagement>在项目pom.xml中添加spring-ai的版本信息:
<spring-ai.version>1.1.2</spring-ai.version>step2.引入模型对应的依赖
如:引入spring-ai-ollama的依赖:
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-ollama-spring-boot-starter</artifactId></dependency>SpringAI完全适配了SpringBoot的自动装配功能,而且给不同的大模型提供了不同的starter,比如:
| 模型/平台 | starter |
|---|---|
| Anthropic | <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-anthropic-spring-boot-starter</artifactId> </dependency> |
| Azure OpenAI | <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-azure-openai-spring-boot-starter</artifactId> </dependency> |
| DeepSeek | <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-openai-spring-boot-starter</artifactId> </dependency> |
| Hugging Face | <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-huggingface-spring-boot-starter</artifactId> </dependency> |
| Ollama | <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-ollama-spring-boot-starter</artifactId> </dependency> |
| OpenAI | <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-openai-spring-boot-starter</artifactId> </dependency> |
step3.配置模型
以ollama为例,我们将application.properties修改为application.yaml,然后添加下面的内容:
spring: application: name: ai-demo ai: ollama: base-url: http://localhost:11434 # ollama服务地址, 这就是默认值 chat: model: deepseek-r1:7b # 模型名称 options: temperature: 0.8 # 模型温度,影响模型生成结果的随机性,越小越稳定以openai为例,添加下面的内容:
spring: ai: openai: base-url: https://dashscope.aliyuncs.com/compatible-mode api-key: ${OPENAI_API_KEY} chat: options: model: qwen-max-latest #模型名称 temperature: 0.8 #模型温度,值越大,输出结果越随机step4.配置客户端ChatClient中封装了与AI大模型对话的各种API,同时支持同步式或响应式交互。
不过,在使用之前,首先我们需要声明一个ChatClient。
在config包下新建一个Configuration类:
importorg.springframework.ai.chat.client.ChatClient;importorg.springframework.ai.chat.client.advisor.SimpleLoggerAdvisor;importorg.springframework.ai.ollama.OllamaChatModel;importorg.springframework.context.annotation.Bean;importorg.springframework.context.annotation.Configuration;@ConfigurationpublicclassCommonConfiguration{// 注意参数中的model就是使用的模型,这里用了Ollama,也可以选择OpenAIChatModel@BeanpublicChatClientchatClient(OllamaChatModelmodel){returnChatClient.builder(model)// 创建ChatClient工厂.build();// 构建ChatClient实例}}step5. 同步调用
我们定义一个Controller,在其中接收用户发送的提示词,然后把提示词发送给大模型,交给大模型处理,拿到结果后返回。
importlombok.RequiredArgsConstructor;importorg.springframework.ai.chat.client.ChatClient;importorg.springframework.web.bind.annotation.RequestMapping;importorg.springframework.web.bind.annotation.RequestParam;importorg.springframework.web.bind.annotation.RestController;@RequiredArgsConstructor@RestController@RequestMapping("/ai")publicclassChatController{privatefinalChatClientchatClient;@RequestMapping("/chat")publicStringchat(@RequestParam(defaultValue="讲个笑话")Stringprompt){returnchatClient.prompt(prompt)// 传入user提示词.call()// 同步请求,会等待AI全部输出完才返回结果.content();//返回响应内容}}注意,基于call()方法的调用属于同步调用,需要所有响应结果全部返回后才能返回给前端。
step6.流式调用
在SpringAI中使用了WebFlux技术实现流式调用。
修改ChatController中的chat方法:
// 注意看返回值,是Flux<String>,也就是流式结果,另外需要设定响应类型和编码,不然前端会乱码@RequestMapping(value="/chat",produces="text/html;charset=UTF-8")publicFlux<String>chat(@RequestParam(defaultValue="讲个笑话")Stringprompt){returnchatClient.prompt(prompt).stream()// 流式调用.content();}step7.System设定
在SpringAI中,设置System信息非常方便,不需要在每次发送时封装到Message,而是创建ChatClient时指定即可。
我们修改Configuration中的代码,给ChatClient设定默认的System信息:
@BeanpublicChatClientchatClient(OllamaChatModelmodel){returnChatClient.builder(model)// 创建ChatClient工厂实例.defaultSystem("").defaultAdvisors(newSimpleLoggerAdvisor()).build();// 构建ChatClient实例}