当前位置: 代码网 > it编程>前端脚本>Python > Ollama Python 使用小结

Ollama Python 使用小结

2025年03月26日 Python 我要评论
ollama 提供了 python sdk,可以让开发者能够在 python 环境中与本地运行的模型进行交互。通过 ollama 的 python sdk 能够轻松地将自然语言处理任务集成到 pyth

ollama 提供了 python sdk,可以让开发者能够在 python 环境中与本地运行的模型进行交互。

通过 ollama 的 python sdk 能够轻松地将自然语言处理任务集成到 python 项目中,执行各种操作,如文本生成、对话生成、模型管理等,且不需要手动调用命令行。

安装 python sdk

首先需要安装 ollama 的 python sdk。

可以使用 pip 安装:

pip install ollama

确保环境中已安装了 python 3.x,并且网络环境能够访问 ollama 本地服务。

启动本地服务

在使用 python sdk 之前,确保 ollama 本地服务已经启动。

可以使用命令行工具来启动它:

ollama serve

启动本地服务后,python sdk 会与本地服务进行通信,执行模型推理等任务。

使用 ollama 的 python sdk 进行推理

安装了 sdk 并启动了本地服务后,就可以通过 python 代码与 ollama 进行交互。

首先,从 ollama 库中导入 chat 和 chatresponse:

from ollama import chat
from ollama import chatresponse

通过 python sdk,可以向指定的模型发送请求,生成文本或对话:

from ollama import chat
from ollama import chatresponse

response: chatresponse = chat(model='deepseek-coder', messages=[
  {
    'role': 'user',
    'content': '你是谁?',
  },
])
# 打印响应内容
print(response['message']['content'])

# 或者直接访问响应对象的字段
#print(response.message.content)

执行以上代码,输出结果为:

我是由中国的深度求索(deepseek)公司开发的编程智能助手,名为deepcoder。我可以帮助你解答与计算机科学相关的问题和任务。如果你有任何关于这方面的话题或者需要在某个领域进行学习或查询信息时请随时提问!

llama sdk 还支持流式响应,开发者可以在发送请求时通过设置 stream=true 来启用响应流式传输。

from ollama import chat

stream = chat(
    model='deepseek-coder',
    messages=[{'role': 'user', 'content': '你是谁?'}],
    stream=true,
)

# 逐块打印响应内容
for chunk in stream:
    print(chunk['message']['content'], end='', flush=true)

自定义客户端

开发者还可以创建自定义客户端,来进一步控制请求配置,比如设置自定义的 headers 或指定本地服务的 url。

创建自定义客户端

通过 client,可以自定义请求的设置(如请求头、url 等),并发送请求。

from ollama import client

client = client(
    host='http://localhost:11434',
    headers={'x-some-header': 'some-value'}
)

response = client.chat(model='deepseek-coder', messages=[
    {
        'role': 'user',
        'content': '你是谁?',
    },
])
print(response['message']['content'])

输出:

我是由中国的深度求索(deepseek)公司开发的编程智能助手,名为deepcoder。我主要用于回答计算机科学相关的问题和帮助解决与这些主题相关的不太清楚或困难的地方。如果你有任何关于python、javascript或者其他计算机科学领域的问题,欢迎向我提问!

异步客户端

如果开发者希望异步执行请求,可以使用 asyncclient 类,适用于需要并发的场景。

import asyncio
from ollama import asyncclient

async def chat():
    message = {'role': 'user', 'content': '你是谁?'}
    response = await asyncclient().chat(model='deepseek-coder', messages=[message])
    print(response['message']['content'])

asyncio.run(chat())

输出:

我是由中国的深度求索(deepseek)公司开发的编程智能助手,名为"deepcoder"。我是一个专门回答计算机科学相关问题的ai模型,能够帮助用户解答关于机器学习、人工智能等领域的问题。对于其他非技术性问题或请求,例如情感分析或者日常对话类的需求,我是无法提供服务的。

异步客户端支持与传统的同步请求一样的功能,唯一的区别是请求是异步执行的,可以提高性能,尤其是在高并发场景下。

异步流式响应

如果开发者需要异步地处理流式响应,可以通过将 stream=true 设置为异步生成器来实现。

import asyncio
from ollama import asyncclient

async def chat():
    message = {'role': 'user', 'content': '你是谁?'}
    async for part in await asyncclient().chat(model='deepseek-coder', messages=[message], stream=true):
        print(part['message']['content'], end='', flush=true)

asyncio.run(chat())

响应将逐部分地异步返回,每部分都可以即时处理。

常用 api 方法

ollama python sdk 提供了一些常用的 api 方法,用于操作和管理模型。

1. chat 方法

与模型进行对话生成,发送用户消息并获取模型响应:

ollama.chat(model='llama3.2', messages=[{'role': 'user', 'content': 'why is the sky blue?'}])

2. generate 方法

用于文本生成任务。与 chat 方法类似,但是它只需要一个 prompt 参数:

ollama.generate(model='llama3.2', prompt='why is the sky blue?')

3. list 方法

列出所有可用的模型:

ollama.list()

4. show 方法

显示指定模型的详细信息:

ollama.show('llama3.2')

5. create 方法

从现有模型创建新的模型:

ollama.create(model='example', from_='llama3.2', system="you are mario from super mario bros.")

6. copy 方法

复制模型到另一个位置:

ollama.copy('llama3.2', 'user/llama3.2')

7. delete 方法

删除指定模型:

ollama.delete('llama3.2')

8. pull 方法

从远程仓库拉取模型:

ollama.pull('llama3.2')

9. push 方法

将本地模型推送到远程仓库:

ollama.push('user/llama3.2')

10. embed 方法

生成文本嵌入:

ollama.embed(model='llama3.2', input='the sky is blue because of rayleigh scattering')

11. ps 方法

查看正在运行的模型列表:

ollama.ps()

错误处理

ollama sdk 会在请求失败或响应流式传输出现问题时抛出错误。

开发者可以使用 try-except 语句来捕获这些错误,并根据需要进行处理。

案例

model = 'does-not-yet-exist'

try:
    response = ollama.chat(model)
except ollama.responseerror as e:
    print('error:', e.error)
    if e.status_code == 404:
        ollama.pull(model)

在上述例子中,如果模型 does-not-yet-exist 不存在,抛出 responseerror 错误,捕获后开发者可以选择拉取该模型或进行其他处理。

到此这篇关于ollama python 使用小结的文章就介绍到这了,更多相关ollama python 使用内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com