DeepSeek - Быстрое локальное развертывание.: различия между версиями
Материал из iSphinx Wiki
Isphinx (обсуждение | вклад) Нет описания правки |
Isphinx (обсуждение | вклад) Нет описания правки |
||
Строка 1: | Строка 1: | ||
[[Файл:DeepSeek_Logo.png|безрамки]] | [[Файл:DeepSeek_Logo.png|безрамки]] | ||
Развертывание через ollama. | ==== Развертывание через ollama. ==== | ||
Официальный сайт: <nowiki>https://ollama.com/</nowiki> | Официальный сайт: <nowiki>https://ollama.com/</nowiki> | ||
Строка 8: | Строка 7: | ||
# Проверка установки: Откройте командную строку (cmd) и введите: ollama. Если в терминале вы видите подробный вывод, значит, всё прошло успешно. В противном случае стоит проверить шаги установки или обратиться к документации. | # Проверка установки: Откройте командную строку (cmd) и введите: ollama. Если в терминале вы видите подробный вывод, значит, всё прошло успешно. В противном случае стоит проверить шаги установки или обратиться к документации. | ||
# Поиск и запуск модели: Перейдите на официальный сайт ollama и введите в поиске ключевое слово: deepseek-r1 ① – название модели. ② – укажите объем памяти, который планируете выделить под модель. Чем модель больше, тем выше качество, но и требования к видеопамяти соответственно возрастают. Для начала рекомендую попробовать версию 1.5b. ③ – после выбора модели вам будет предоставлена команда для запуска. Скопируйте ее и выполните в командной строке: ollama run deepseek-r1:1.5b | # Поиск и запуск модели: Перейдите на официальный сайт ollama и введите в поиске ключевое слово: deepseek-r1 ① – название модели. ② – укажите объем памяти, который планируете выделить под модель. Чем модель больше, тем выше качество, но и требования к видеопамяти соответственно возрастают. Для начала рекомендую попробовать версию 1.5b. ③ – после выбора модели вам будет предоставлена команда для запуска. Скопируйте ее и выполните в командной строке: ollama run deepseek-r1:1.5b | ||
# При первом запуске модель начнет загрузку, после чего появится сообщение success, и вы сможете вводить запросы в интерактивном режиме. | |||
# Удаление модели: Чтобы удалить установленную модель, выполните следующие действия: Просмотрите список развернутых моделей: <code>ollama list.</code> Выполните команду удаления: ollama rm deepseek-r1:14b. Важно: Убедитесь, что имя модели соответствует актуальной. | |||
==== Использование расширения для Chrome ==== | |||
Если вам привычнее работать через браузер, воспользуйтесь расширением, которое интегрируется с локальной моделью. | |||
[[Категория:AI]] | [[Категория:AI]] |
Версия от 12:38, 16 февраля 2025
Развертывание через ollama.
Официальный сайт: https://ollama.com/
- Установка: Скачайте установочный пакет ollama и запустите его двойным кликом. После этого нажмите кнопку install - установка пройдет автоматически.
- Проверка установки: Откройте командную строку (cmd) и введите: ollama. Если в терминале вы видите подробный вывод, значит, всё прошло успешно. В противном случае стоит проверить шаги установки или обратиться к документации.
- Поиск и запуск модели: Перейдите на официальный сайт ollama и введите в поиске ключевое слово: deepseek-r1 ① – название модели. ② – укажите объем памяти, который планируете выделить под модель. Чем модель больше, тем выше качество, но и требования к видеопамяти соответственно возрастают. Для начала рекомендую попробовать версию 1.5b. ③ – после выбора модели вам будет предоставлена команда для запуска. Скопируйте ее и выполните в командной строке: ollama run deepseek-r1:1.5b
- При первом запуске модель начнет загрузку, после чего появится сообщение success, и вы сможете вводить запросы в интерактивном режиме.
- Удаление модели: Чтобы удалить установленную модель, выполните следующие действия: Просмотрите список развернутых моделей:
ollama list.
Выполните команду удаления: ollama rm deepseek-r1:14b. Важно: Убедитесь, что имя модели соответствует актуальной.
Использование расширения для Chrome
Если вам привычнее работать через браузер, воспользуйтесь расширением, которое интегрируется с локальной моделью.