Заметки об Олламе (ollama)

Что такое Оллама (ollama)? Это инструмент для запуска больших языковых моделей (LLM — Large Language Model). С помощью Олламы можно запускать на своём сервере или домашнем компьютере публичные языковые модели. Языковых моделей много, даже очень много, и можно найти подходящую под свои задачи и доступные вычислительные мощности.

Олламу можно разворачивать и использовать различными путями. В своей практике, для заказчиков и личных ПК, использую вот такие три варианта:

1. Всё и сразу через веб-интерфейс (WebUI) и Докер.

В данном случае через Докер установится Оллама и веб-интерфейс для управления ей. Всё будет работать «из коробки». Причем, все языковые модели можно будет загрузить прямо из настроек самого веб-интерфейса, что очень удобно для личного использования. Рекомендую начать знакомство именно с этого варианта.

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

На момент прочтения вами этой заметки могли появится изменения в настройках, поэтому, перед запуском команды следует проверить документацию (docs.openwebui.com).

2. Установка чистого дистрибутива прямо в систему.

Данный вариант неплохо подходит для серверов выделенных только под Олламу. Устанавливая напрямую платформу в систему вам не нужно заботится об абстракциях и взаимодействии Докера, например, с видеокартой или программными и другими аппаратными компонентами.

На странице загрузки доступны варианты установки для всех трёх популярных ОС: Виндоуз, Линукс и Мак.

3. Установка Олламы через Докер для обращения к ней по АПИ.

Аналогичен предыдущему варианту — компоненты ставятся отдельно, но только через Докер.

Вычисления через процессор:

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Вычисления с упором на видеокарту от AMD:

docker run -d --restart always --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama -e HSA_OVERRIDE_GFX_VERSION=10.3.0 -e HCC_AMDGPU_TARGET=gfx1030 ollama/ollama:rocm

Вычисления с упором на видеокарту от Nvidia:

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Официальный сайт

Веб-интерфейс для Олламы

О языковых моделях

Другие полезные ссылки

04.06.2024

Категория(-и): ollama

Comments are closed.