4月19日,Meta开源了大模型Llama3,并在多项指标上超越了现有最先进的大模型(详见:关于Llama 3 AI大模型的几点总结 )。Ollama社区也同步新增 Llama3 的支持。接下来,我们将在MacBook Pro上部署Llama3,让大家在本地体验最强开源大模型。
硬件设置,MacBook Pro (2019款),Intel CPU,8 Core,16GB内存。
具体步骤:
- 安装Ollama
- 下载Llama3
- 安装Enchanted
安装Ollama
Ollama大家都比较熟悉了,安装非常方便,有macOS独立安装包。下载,解压,安装。
下载链接:https://ollama.com/download
安装完成后,会提示命令行:ollama run llama2,可以拷贝一下。但是注意要下载llama3,而不是llama2.
下载Llama3
进入 Terminal,执行(把llama2改为llama3):ollama run llama3
。下载需要等待一段时间,具体取决于网络速度。
1 | Terminal复制代码$ ollama run llama3 |
下载完成后,直接进入llama3状态,提示本文:Send a message (/? for help)
。可以自行提问并获得回复。
1 | Terminal复制代码>>> who are you |
macOS 状态栏上有图标提示llama3在后台运行。
安装Enchanted
Enchanted 是开源并兼容 Ollama 的应用程序,允许您在iOS生态系统(macOS、iOS、Watch、Vision Pro)中的所有设备上获得未经过滤、安全、私密和多模态的体验。
下载链接:https://github.com/AugustDev/enchanted
页面点击:Download on the App Store 图标,进入macOS的 App Store 下载安装。
安装完成后,启动界面非常简洁大气:
之前llama3已经在后台运行了,所以可以直接在Enchanted里提问并获得回答。
讨论
这个解决方案可以让我们在个人笔记本电脑上完美体验llama3,无需科学上网即可轻松使用最强的开源大模型。而且,在其他平台(Windows和Linux)上也应该可以轻松部署,具体的步骤可以参考各应用的官方网站,或者查找其他的介绍文章。
本文转载自: 掘金