Несколько дней назад мой партнер Pablinux сказал им как локально установить модную модель искусственного интеллекта. В этой статье я перечислю модели, которые, по моему мнению, лучше DeepSeek, а также расскажу, как их установить и запустить на нашем компьютере.
Оставив в стороне любые политические симпатии или антипатии, шаг китайского правительства был шедевром дипломатического маркетинга, достойным Сунь Цзы. В отличие от «Слона в фарфоровой посуде» Дональда Трампа, они анонсировали модель, которая предлагает те же функции, что и ChatGPT, бесплатно и потребляет меньше ресурсов. Только те из нас, кто следит за темой, знают, что На протяжении долгого времени существовало множество других моделей с открытым исходным кодом (некоторые из них принадлежат североамериканским компаниям, таким как Meta), а производительность DeepSeek сопоставима с ChatGPT только в наиболее распространенных 5% случаев использования.
Крупномасштабные языковые модели
ChatGPT, DeepSeek и другие называются крупномасштабными языковыми моделями. По сути Они позволяют пользователю взаимодействовать с компьютером на языке, похожем на тот, который используется для общения с другим человеком. Чтобы добиться этого, их обучают с помощью больших объемов текста и правил, которые позволяют им извлекать новую информацию из той, которая у них уже есть.
Его основное применение — ответы на вопросы, резюмирование текстов, выполнение переводов и воспроизведение контента.
Лучшие модели, чем DeepSeek, и как их установить локально
Как и Pablinux, мы будем использовать Ollama. Это инструмент, который позволяет нам устанавливать, удалять и использовать различные модели с открытым исходным кодом из терминала Linux. В некоторых случаях браузер можно использовать как графический интерфейс, но в этой статье мы это рассматривать не будем.
Для того чтобы Ollama обеспечивала надлежащий пользовательский интерфейс, лучше всего иметь выделенный графический процессор..Особенно в моделях с большим количеством параметров. Однако менее мощные из них можно использовать на Raspberry Pi, и когда я даже тестировал модели с 7 миллиардами параметров на компьютере с 6 гигабайтами памяти и без выделенного графического процессора, компьютер работал без сбоев. С одним из 13 миллиардов такого не произошло.
Параметры — это правила, которые модель использует для построения взаимосвязей и конструирования закономерностей среди данных. Чем больше параметров и данных, тем мощнее будет модель; те, у кого меньше параметров, говорят по-испански, как Тарзан.
Мы можем установить Ollama с помощью команд
sudo apt install curl
curl -fsSL https://ollama.com/install.sh | sh
Установить модель можно с помощью команды:
ollama pull nombre_del modelo
И запустите его с помощью:
ollama run nombre_del_modelo
Удаляем его с помощью:
ollama rm nombre_del_modelo
Мы можем увидеть установленные модели, набрав:
ollama list
Ниже приведен небольшой список моделей, которые я считаю наиболее интересными: Полный список доступных моделей можно найти здесь. здесь:
llama2-без цензуры
Llama — это универсальная модель, созданная Meta. В этой версии были сняты все ограничения, введенные разработчиками оригинального проекта по юридическим или политическим причинам.. Он имеет две версии: облегченную, которая работает с 8 ГБ, и полную, которой нужно 64 ГБ. Его можно использовать для ответов на вопросы, написания текстов или выполнения задач по кодированию.
Устанавливается с:
ollama pull llama2-uncensored
И он работает с:
ollama run llama2-uncensored
кодегемма
CodeGemma — это набор легких, но мощных шаблонов, которые позволяют выполнять различные задачи программирования. как завершить код или написать его с нуля. Понимает естественный язык, может следовать инструкциям и делать математические рассуждения.
Поставляется в 3 вариантах:
- Проинструктировать: Он преобразует естественный язык в код и может следовать инструкциям:
- Код: Дополнение и генерация кода из частей существующего кода.
- 2b: Более быстрая задача завершения кода.
Тыниллама
Как следует из названия, это уменьшенная версия оригинальной модели Meta.. Так что результаты будут не такими уж хорошими, но если вы хотите увидеть, как работает модель искусственного интеллекта на скромном оборудовании, стоит попробовать. Он имеет всего 1100 миллиарда параметров.
Использование моделей на локальном уровне имеет такие преимущества, как конфиденциальность и доступ к неотцензурированным и беспристрастным версиям, которые в некоторых случаях оказываются просто смехотворными. Искусственный интеллект Microsoft отказался создать для меня изображение таксы, потому что посчитал слово «сука» оскорбительным. Самый большой недостаток — это требования к оборудованию. Вам придется опробовать модели и найти ту, которая будет соответствовать вашим потребностям и сможет работать на имеющемся у вас оборудовании.