Как установить и использовать DeepSeek-R1 локально на вашем компьютере, используете ли вы Ubuntu или любую другую систему

  • DeepSeek-R1 — это модель с открытым исходным кодом и расширенными возможностями рассуждения.
  • Ollama упрощает локальную установку и управление моделями ИИ.
  • ChatBoxAI предлагает графический интерфейс для взаимодействия с такими моделями, как DeepSeek.
  • Модель можно легко интегрировать в проекты разработки с помощью Python.

DeepSeek-R1 в Ubuntu

Искусственный интеллект продолжает трансформировать наш мир, а возможности работы с продвинутыми языковыми моделями растут как на дрожжах. Однако не всем нужно подключаться к облачным сервисам или полагаться на третьих лиц для изучения этих технологий. Интересным и доступным вариантом является ДипСик-Р1, модель искусственного интеллекта, которая позволяет пользователям запускать ее локально на скромных компьютерах. В этой статье я объясню, как установить DeepSeek и в полной мере воспользоваться его возможностями.

DeepSeek-R1 — это модель искусственного интеллекта с открытым исходным кодом который выделяется своей эффективностью и развитыми способностями к рассуждению. Запуская его локально, вы не только экономите текущие расходы, но также защищаете свою конфиденциальность и получаете возможность интегрировать его в собственные проекты. Хотя для некоторых моделей требуется мощное оборудование, DeepSeek-R1 предлагает версии, настроенные на разные ресурсы: от базовых компьютеров до продвинутых рабочих станций.

Что такое DeepSeek и зачем использовать его локально?

DeepSeek-R1 — это расширенная языковая модель, предназначенная для сложных задач, таких как логическое рассуждение, решение математических задач и генерация кода. Его основным преимуществом является то, что он имеет открытый исходный код, а это означает, что вы можете установить и запустить его на своем компьютере, не завися от внешних серверов.

Некоторые из его примечательных особенностей включают в себя:

  • гибкость: Вы можете адаптировать модель под свои нужды: от облегченных версий до расширенных конфигураций.
  • Конфиденциальность: Вся обработка выполняется локально, что позволяет избежать опасений по поводу раскрытия конфиденциальных данных. Это, пожалуй, самый важный момент, поскольку многих беспокоит, что компании могут делать с нашими данными.
  • сбережения: Вам не придется тратить деньги на подписки или облачные сервисы, что делает его доступным вариантом для разработчиков и предприятий.

Требования к установке

Перед началом установки убедитесь, что соблюдены следующие условия. требование:

  • Компьютер с операционной системой Linux, macOS или Windows (в последнем случае с поддержкой WSL2).
  • Минимум 8 Гб оперативной памяти, хотя рекомендуется как минимум 16 GB для оптимальной производительности.
  • Доступ в Интернет для первоначальной загрузки моделей.
  • Базовые знания терминала или командной строки.

Кроме того, вам нужно будет установить инструмент под названием Оллама, который управляет и запускает модели DeepSeek локально.

Установка Олламы

Оллама — это простое решение, позволяющее загружать и запускать языковые модели, такие как ДипСик-Р1. Чтобы установить его, выполните следующие действия:

  1. В Linux или macOS откройте терминал и выполните следующую команду, чтобы установить Ollama — пакет виться Очевидно, что необходимо:
завиток -fsSL https://ollama.com/install.sh | ш
  1. В системах Windows заранее убедитесь, что у вас включен WSL2, а затем выполните те же действия в терминале Ubuntu, которые вы настраиваете в WSL.
  2. Убедитесь, что Ollama установлена ​​правильно, запустив ollama --version. Если команда возвращает номер версии, вы готовы двигаться дальше.

Скачать DeepSeek-R1

Когда Ollama установлена ​​и работает (ollama serve в терминале, если загрузка, которую мы объясним позже, не удалась), теперь вы можете загрузить модель DeepSeek, которая лучше всего соответствует вашим потребностям и оборудованию:

  • Параметры 1.5Б: Идеально подходит для простых компьютеров. Эта модель занимает примерно 1.1 GB.
  • Параметры 7Б: Рекомендуется для оборудования с Графические процессоры средне-высокий. Это занимает около 4.7 GB.
  • Параметры 70Б: Для сложных задач на оборудовании с большая емкость памяти и мощного графического процессора.

Чтобы загрузить стандартную модель 7B, запустите в терминале следующую команду:

Олама Беги Deepseek-R1

Время загрузки будет зависеть от скорости вашего Интернета и будет необходимо только при первом запуске чат-бота. После завершения модель будет готова к использованию из командной строки или через графический интерфейс.

Использование DeepSeek с графическим интерфейсом

Хотя взаимодействовать с DeepSeek можно прямо из терминала, многие пользователи для удобства предпочитают графический интерфейс. В этом случае вы можете установить ЧатБоксAI, бесплатное приложение, которое позволит вам воспользоваться преимуществами DeepSeek из визуальная форма.

  • Загрузить и установить ЧатБоксAI от его официальная страница.
  • Настройте приложение для использования Оллама в качестве поставщика модели:

В настройках ChatBoxAI выберите «Использовать мой собственный API» и выберите ранее скачанную вами модель DeepSeek. Если все настроено правильно, вы сможете выполнять запросы и задачи прямо из графического интерфейса.

Интеграция DeepSeek в проекты

Если вы разработчик, вы можете интегрировать DeepSeek в свои проекты, используя его API Совместимость с OpenAI. Вот простой пример использования Питон:

import openai client = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") ответ = client.chat.completions.create(model="deepseek-r1", messages=[{ "role": "user", "content": "Сгенерировать код на Python для расчета Фибоначчи"}])

Этот скрипт отправит запрос к локальной модели DeepSeek и вернет результат в ваш терминал или приложение.

Модель DeepSeek-R1 AI представляет собой отличный вариант для тех, кто ищет передовое и экономичное решение. Благодаря простоте доступа, которую обеспечивает Ollama, гибкости своих моделей и возможности интеграции в собственные проекты, DeepSeek открывает новые возможности для разработчиков, студентов и экспертов по искусственному интеллекту. Поскольку этот инструмент ориентирован на конфиденциальность и производительность, он заслуживает тщательного изучения.


Оставьте свой комментарий

Ваш электронный адрес не будет опубликован. Обязательные для заполнения поля помечены *

*

*

  1. Ответственный за данные: Мигель Анхель Гатон
  2. Назначение данных: контроль спама, управление комментариями.
  3. Легитимация: ваше согласие
  4. Передача данных: данные не будут переданы третьим лицам, кроме как по закону.
  5. Хранение данных: база данных, размещенная в Occentus Networks (ЕС)
  6. Права: в любое время вы можете ограничить, восстановить и удалить свою информацию.