type
status
date
slug
summary
tags
category
icon
password
😀
Google Colab作为一个免费的云端计算平台,提供了强大的GPU资源支持。如果将写好的 ai 应用代码发布到 github上,并借助github 上 codespaces 来调用 colab 的算力来运行大模型的话, 我们就能打造一个低成本的大模型云运行环境,将codespaces与Colab的优势结合,打造一个突破本地硬件限制的AI应用,那么开始实践吧。
 

在 Google Colab 上免费运行 Ollama 和使用 LLM 模型

 

在 Google Colab 上启动和运行 Ollama 所需的步骤

 
让我们不要浪费时间,直接开始了解使用大型语言模型所需的步骤。
 

步骤 1:安装软件包

在 Google Colab 笔记本中安装和加载模块
 

步骤 2:打开终端

安装完成后,我们需要打开终端以访问Google Colab上的命令行
一个终端将会打开,你会在笔记本中看到类似这样的内容。
notion image

步骤 3:安装 Ollama

在终端中运行以下命令来安装 Ollama:
notion image

步骤 4:拉取所需模型

Ollama 支持相当多的模型,这些模型的列表可以在其官方网站以下地址找到:https://ollama.com/library 请在终端中输入以下命令:
notion image

步骤 5:构建 colab内网穿透隧道

多种尝试可以在colab 上进行内网穿透上述设置。下面我尝试使用 ngrok 来搭建穿透环境,首先下载 ngrok:
注册登录 ngrok 网站 https://ngrok.com/,按照里面 getting start 引导,选择 linux 的指引,你应该会看到网站提示你运行下面的命令来配置 ngrok.yml
 
为我们的 ollama 服务映射端口吧
下面应该可以通过隧道形式访问 ollama 服务了

步骤 6:codespaces 访问 ollama 隧道接口

在 ngrok 中找到我们定向到的隧道链接,原图裂开,导航栏寻找 endpoints 即可
notion image
 
codespaces 项目中新建一个测试 js
运行代码:
测试通过后我们就可顺利完成远程调用 ollama 服务了

📎 参考文章

  • - 一个在 Colab 上测试 Ollama RAG 功能的示例笔记本。
 
 
💡
有关Notion安装或者使用上的问题,欢迎您在底部评论区留言,一起交流~