Ollama本地部署
通用配置
请参考通用配置
依赖配置
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-model-ollama</artifactId>
</dependency>
密钥配置
spring:
ai:
ollama:
# 填写模型所在的地址
base-url: http://localhost:11434
chat:
model: xxx
使用
private final OllamaChatModel chatModel;
消息发送案例
请参考消息发送