PC Health Check
Windows 电脑健康状况检查

如何在本地运行 Meta AI 的 Llama 3

Meta 的最新语言模型 Llama 3 现已免费推出。虽然您可以使用运行相同 LLM 的 Meta AI,但也可以选择下载模型并在您的系统上本地运行它。以下是在本地运行 Meta AI 的 Llama 3 所需了解的所有信息。

如何在本地运行 Meta AI 的 Llama 3

虽然 Meta AI 仅在特定国家/地区可用,但无论您身在哪个地区,您都可以在 PC 上本地下载并运行 Llama 3。请按照以下步骤在本地运行 Meta AI 的 Llama 3。

第 1 步:安装 LM Studio

首先,让我们安装一个框架来运行 Llama 3。如果您的系统上已经有另一个此类应用程序,则可以跳到下一步。对于其他人,以下是获得 LM 工作室的方法:

  1. 使用上面的链接,然后单击 LM Studio for Windows 进行下载。
    meta-llama-3-locally-1-1
  2. 下载后,运行安装程序并让 LM Studio 安装。
    meta-llama-3-locally-3-1

第 2 步:在本地下载 Meta 的 Llama 3

一旦你有了你的 LLM 框架,就该将 Meta 的 Llama 3 下载到你的 PC 上了。有几种方法可以做到这一点。

  1. 打开 Llama.Meta.com,然后单击下载模型
    meta-llama-3-locally-4
  2. 输入您的详细信息,并请求下载 LLM。
    meta-llama-3-locally-5

如果上述方法不起作用,请不要担心。您也可以使用 LLM 框架下载 LLM。

  1. 只需在 LM Studio 的搜索字段中搜索 Meta Llama。
    meta-llama-3-locally-7
  2. 在这里,您可以找到各种量化的 LLM。
    meta-llama-3-locally-8
  3. 在右侧,选择您的首选版本。单击它旁边的下载
    meta-llama-3-locally-9
  4. 等待下载完成。
  5. 完成后,单击左侧的“我的模型”。
    meta-llama-3-locally-11
  6. 并检查下载是否完成。
    meta-llama-3-locally-12

第 3 步:加载下载的模型

  1. 下载完成后,单击左侧的 AI 聊天
    meta-llama-3-locally-13
  2. 单击“选择要加载的模型”。
    meta-llama-3-locally-14
  3. 并选择下载的 Meta Llama 3。
    meta-llama-3-locally-15
  4. 等待模型加载。
    meta-llama-3-locally-16
  5. 加载后,您可以将整个模型卸载到 GPU。为此,请单击“设置”下的“高级配置”。
    meta-llama-3-locally-17
  6. 单击 Max 将整个模型卸载到 GPU。
    meta-llama-3-locally-18
  7. 单击“重新加载模型”以应用配置
    meta-llama-3-locally-19

第 4 步:运行 Llama 3(并使用提示进行测试)

模型加载后,您可以开始在本地与 Llama 3 聊天。不,由于 LLM 存储在您的本地计算机上,因此您不需要互联网连接即可这样做。因此,让我们对 Llama 3 进行测试,看看它的能力。

测试抗审查性

meta-llama-3-locally-24

测试对复杂主题的理解

meta-llama-3-locally-22

幻觉检测

meta-llama-3-locally-20

测试创造力和理解
meta-llama-3-locally-23

根据大多数人的说法,Llama 3 是一个非常可靠的大型语言模型。除了上面提到的测试提示外,即使在一些更复杂的主题和提示上,它也表现出色。

赞(0) 打赏
未经允许不得转载:PC Health Check » 如何在本地运行 Meta AI 的 Llama 3

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏