Meta 在上个月末发布了一系列开源大模型 ——LLaMA(Large Language Model Meta AI),参数量从 70 亿到 650 亿不等。由于模型参数量较少,只需单张显卡即可运行,LLaMA 因此被称为 ChatGPT 的平替。发布以来,已有多位开发者尝试在自己的设备上运行 LLaMA 模型,并分享经验。虽然相比于 ChatGPT 等需要大量算力资源的超大规模的语言模型,单张显卡的要求已经很低了,但还能更低!最近有开发者实现了在 MacBook 上运行 LLaMA,还有开发者成功在 4GB RAM 的树莓派上运行了 LLaMA 7B。这些都得益于一个名为 llama.cpp 的新项目,该项目在 GitHub 上线三天,狂揽 4.6k star。Georgi Gerganov 是资深的开源社区开发者,曾为 OpenAI 的 Whisper 自动语音识别模型开发 whisper.cpp。
这次,llama.cpp 项目的目标是在 MacBook 上使用 4-bit 量化成功运行 LLaMA 模型,具体包括:- Apple silicon first-class citizen—— 通过 Arm Neon 和 Accelerate 框架;
llama.cpp 让开发者在没有 GPU 的条件下也能运行 LLaMA 模型。项目发布后,很快就有开发者尝试在 MacBook 上运行 LLaMA,并成功在 64GB M2 MacBook Pro 上运行了 LLaMA 7B 和 LLaMA 13B。如果 M2 芯片 MacBook 这个条件还是有点高,没关系,M1 芯片的 MacBook 也可以。另一位开发者分享了借助 llama.cpp 在 M1 Mac 上运行 LLaMA 模型的方法。
除了在 MacBook 上运行,还有开发者借助 llama.cpp 在 4GB RAM Raspberry Pi 4 上成功运行了 LLaMA 7B 模型。Meta 首席 AI 科学家、图灵奖得主 Yann LeCun 也点赞转发了。
以上是 3 个在普通硬件设备上成功运行 LLaMA 模型的例子,几位开发者都是借助 llama.cpp 实现的,可见 llama.cpp 项目的实用与强大。
看来,LLaMA 将在 Meta 和开源社区的共同努力下,成为众多开发者钻研大规模语言模型的入口。
关键字:树莓派
引用地址:
无需显卡,树莓派也能运行开源系列模型 LLaMA
推荐阅读最新更新时间:2024-11-09 10:16
搞定电路设计之适于树莓派的±10V模拟输入和±15V模拟输出I/O模块
搞定电路设计之适于树莓派的±10V模拟输入和±15V模拟输出I/O模块 虽然世界继续更加数字化,计算能力和数字功能愈发关键,但测量环境和与实际器件交互的需求仍然是一种模拟功能。为了在数字和模拟域的边界运行,处理器必须包括混合信号输入/输出,并适应更多的软件可编程范围,从而支持许多工业、仪器仪表和自动化应用。 图1所示的电路是一个灵活的多通道混合信号模拟输入/输出(I/O)模块。16个单端模拟输出可通过软件配置,支持范围为0V至5V、±5V、0V至10V和±15V。8个全差分模拟输入通道的输入范围为0V至2.5V、±13.75V和0V至27.5V,可通过硬件进行选择。 图1.ADI CN0554简化功能框图 该电路
[模拟电子]
基于树莓派RP2040的解魔方机器人,7秒还原三阶魔方
话说,转魔方真真是特别解压的事情!虽然未必能如高手那样胸有成竹“咔咔咔"几下,行云流水间就还原。 但,谁还不会“抠籽归位”大法呢? 不过,当有人为你递上一个不知经历了什么的神奇魔方,又满怀期待地望着你,是时候亮出的魔法神器了。 今天特别分享 @爱跑步的小何大佬 的开源佳作——三阶魔方还原。 三阶魔方还原机器人 - 开源分享- 这是一款基于RP2040设计的 三阶魔方 还原 机器人 ,控制和魔方求解都使用单片机完成。对于随机打乱的三阶魔方,平均还原步骤数在21步左右。 当前V2.0版本,可实现7秒还原三阶魔方。 全部现已开源,含原理图和、单片机源码()、结构图(openSCAD格式/S
[机器人]