Инсталляция RagFlow в Ubuntu
Делаю:
2025.02.05
На основе видео:
[YouTube][Aleksandar Haber PhD] Correctly Install and Run RAGFlow Locally with Llama/Ollama and Create Local Knowledge Base and Chat [ENG, 2024]
Перед инсталляцией
Вот такое у меня было:
Fatal glibc error: CPU does not support x86-64-v2
Помогли админы виртуалки, на которую я устанавливал ragflow. Деталей не знаю. Думаю или какой-то параметр для виртуализации добавили, или на железку с более новым оборудованием перенесли, где все процессорные инструкции есть.
Докер docker-compose пришлось обновить. С версией, что была у меня, появлялась ошибка.
$ docker-compose --version
Docker Compose version v2.32.4
elasticsearch не дает скачивать images. Переложил image с зарубежного облака без изменений следующими командами. Нужная версия в конфиге ragflow.
$ docker login -u webmakaka
$ docker pull docker.elastic.co/elasticsearch/elasticsearch:8.11.3
$ docker tag docker.elastic.co/elasticsearch/elasticsearch:8.11.3 webmakaka/elasticsearch:8.11.3
$ docker push webmakaka/elasticsearch:8.11.3
Параметры для ElasticSearch
/sbin/sysctl vm.max_map_count
$ cat /proc/sys/vm/max_map_count
65530
$ sudo sysctl -w vm.max_map_count=262144
vm.max_map_count = 262144
$ sudo vi /etc/sysctl.conf
vm.max_map_count=26214
Инсталляция пакетов
$ curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash
$ sudo apt-get install git-lfs
$ git lfs install
// repo
https://github.com/infiniflow/ragflow.git
$ cd /opt
$ git clone --progress --verbose https://github.com/infiniflow/ragflow.git
$ sudo chown -R ${USER} /opt/ragflow
$ chmod +x /opt/ragflow/docker/entrypoint.sh
$ cd /opt/ragflow/docker/
$ vi docker-compose-base.yml
Прописываю image для elasticsearch, что в начале.
$ docker-compose up -d
// Логи. В них то и была ошибка с CPU does not support
$ docker logs -f ragflow-server
$ docker logs -f ragflow-minio
При обращении открывает UI
http://localhost/
Ollama
// Открыть порт ollama для всех входящих
$ sudo ufw allow 11434/tcp
// Установка ollama
$ curl -fsSL https://ollama.com/install.sh | sh
$ sudo vi /etc/systemd/system/ollama.service
Добавить в [Service]
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
$ sudo systemctl daemon-reload
$ sudo systemctl restart ollama
Какая-то полезная информация должна отображаться по статусу работы сервиса
http://localhost:11434
$ ollama pull llama3.1:8b
$ ollama pull mxbai-embed-large:latest
Далее в интерфейсе по видео.