Twój koszyk jest pusty ...
Strona główna » Blog IT » Jak uruchomić Llamę 3 lokalnie
Kontakt
  • Yeto Sp. z o.o. Serwis laptopów i komputerów Poznań. Serwis Lenovo, Dell, HP, Asus, Toshiba, Acer, MSI, Sony, Samsung, Xiaomi, Microsoft, Gigabyte, Razer, LG, Huawei, PEAQ. Sklep komputerowy: akcesoria, laptopy, zasilacze, baterie. Ul. Stablewskiego 3 60-224 Poznań (wjazd między garażami) lub od Łukaszewicza 44 (vis a vis Biedronki-parking) Od 07.30 do 19.30, także weekendy.
    NIP: 7792533766
  • E-mail:serwis@yeto.pl
  • Telefon732-900-555
  • Godziny działania sklepuZgłoszenia napraw domowych codziennie 07.30 - 19.30. Przyjęcia sprzętu w zakładzie od 07.30 do 19.30 Darmowy parking przed serwisem lub pod Biedronką na Łukaszewicza 44 vis a vis serwisu. Przyjmujemy także w weekendy.

Jak uruchomić Llamę 3 lokalnie

Data dodania: 25-04-2024


Jak uruchomić Llamę 3 lokalnie za pomocą Ollama?

 

Llama 3 Meta lokalnie
Llama 3 Meta

 


Aby rozpocząć, pierwszym krokiem jest instalacja programu Ollama, który jest kompatybilny z trzema głównymi systemami operacyjnymi
Ollama, bezpłatne narzędzie o otwartym kodzie źródłowym, umożliwia obsługę różnych dużych modeli językowych, takich jak Llama 3, na komputerach osobistych, nawet tych o ograniczonych możliwościach. Wykorzystuje llama.cpp, bibliotekę typu open source, która optymalizuje wydajność LLM na komputerach lokalnych przy minimalnych wymaganiach sprzętowych. Ollama oferuje również menedżera pakietów, który upraszcza proces szybkiego i wydajnego pobierania i aktywowania LLM za pomocą jednego polecenia.

LLama 3 lokalnie za pomocą Ollama krok po kroku

Aby rozpocząć, pierwszym krokiem jest instalacja programu Ollama , który jest kompatybilny z trzema głównymi systemami operacyjnymi, z aktualnie dostępną wersją systemu Windows 11 .
Po instalacji wystarczy otworzyć terminal. Polecenie aktywacji Ollama jest spójne na wszystkich obsługiwanych platformach.
ollama run llama3
Poczekaj kilka minut na pobranie i załadowanie modelu, po czym możesz rozpocząć z nim interakcję!
API Ollama
Jeśli rozważasz włączenie Ollama do swoich projektów, zapewnia ona własne API oraz kompatybilne z OpenAI. Te interfejsy API ułatwiają automatyczne ładowanie lokalnie przechowywanego LLM do pamięci, przeprowadzanie wnioskowania, a następnie rozładowywanie go po określonym czasie.

Musisz jednak najpierw pobrać modele, których chcesz używać, za pomocą wiersza poleceń, zanim będziesz mógł obsługiwać model za pośrednictwem interfejsu API.
ollama pull llama
Ollama oferuje również dedykowane interfejsy API, w tym kilka zestawów SDK specjalnie dla Javascript i Python. W przypadku podstawowego zadania generowania tekstu za pomocą interfejsu API wystarczy dostosować parametr modelu do żądanego modelu. Szczegółowe instrukcje można znaleźć w oficjalnej dokumentacji API
curl http://localhost:11434/api/generate -d ‘{

“model”: “llama”,

“prompt”:”what is artificial intelligence?”

}’
Oto metoda wnioskowania o generowaniu czatu przy użyciu interfejsu API.
curl http://localhost:11434/api/chat -d ‘{

“model”: “llama”,

“messages”: [

{ “role”: “user”, “content”: “what is artificial intelligence?” }

]

}’
Jak skonfigurować Ollamę za pomocą WebUI?
Zacznij od pobrania i zainstalowania Docker Desktop na swoim komputerze, aby skonfigurować stabilne środowisko do uruchamiania aplikacji kontenerowych. Po instalacji otwórz terminal i wykonaj następujące polecenie, aby pobrać najnowszy obraz Ollama z Docker Hub:
docker run -d \

–name ollama \

-p 11434:11434 \

-v ollama_volume:/root/.ollama \

ollama/ollama:latest
To polecenie pobiera najnowszą wersję obrazu Ollama, wraz ze wszystkimi niezbędnymi bibliotekami i zależnościami potrzebnymi do obsługi modelu:
docker run: This initiates the creation and startup of a new Docker container.
-d: Enables detached mode, allowing the container to operate in the background of your terminal.
–name ollama: Assigns the name “ollama” to the container, which simplifies future references to it via Docker commands.
-p 11434:11434: Maps port 11434 on the container to port 11434 on the host system, facilitating interaction with the application inside the container through the specified host system’s port.
-v ollama_volume:/root/.ollama: Attaches a volume named “ollama_volume” to /root/.ollama within the container for persistent storage, ensuring that data remains intact across container restarts and recreations. Docker will automatically create “ollama_volume” if it doesn’t already exist.
ollama/ollama:latest: Specifies the container image, using the “latest” version of the “ollama/ollama” image from a Docker registry such as Docker Hub.
Następnie, aby uwolnić tę funkcjonalność, wprowadź to polecenie w terminalu:
$ docker ps

aa492e7068d7   ollama/ollama:latest        “/bin/ollama serve”      9 seconds ago   Up 8 seconds   0.0.0.0:11434->11434/tcp   ollama

 

$ curl localhost: 11434

Ollama is running
Kontynuuj klonowanie oficjalnego repozytorium Ollama WebUI:
git clone https://github.com/ollama-webui/ollama-webui

cd ollama-webui
Następnie otwórz plik Compose, aby wyświetlić konfigurację YAML:
version: ‘3.6’

 

services:

ollama:

volumes:

– ollama:/root/.ollama

# Uncomment below to expose Ollama API outside the container stack

# ports:

#   – 11434:11434

container_name: ollama

pull_policy: always

tty: true

restart: unless-stopped

image: ollama/ollama:latest

 

ollama-webui:

build:

context: .

args:

OLLAMA_API_BASE_URL: ‘/ollama/api’

dockerfile: Dockerfile

image: ollama-webui:latest

container_name: ollama-webui

depends_on:

– ollama

ports:

– 3000:8080

environment:

– “OLLAMA_API_BASE_URL=http://ollama:11434/api”

extra_hosts:

– host.docker.internal:host-gateway

restart: unless-stopped

 

volumes:

ollama: {}
Przed przystąpieniem do kolejnych kroków upewnij się, że zatrzymałeś kontener Ollama Docker przy użyciu tej metody:
docker compose up -d
Przejdź do Docker Dashboard, następnie kliknij Kontenery, a następnie kliknij port WebUI.

Pomyślnie skonfigurowałeś Ollamę z jej WebUI w zaledwie dwie minuty, unikając skomplikowanych procesów wdrażania podów. Dzięki tej konfiguracji możesz uzyskać dostęp do szerokiej gamy funkcji i funkcjonalności za pośrednictwem interfejsu WebUI. Zaangażuj Ollamę do generowania różnych kreatywnych wyników tekstowych, takich jak wiersze, kod, scenariusze, kompozycje muzyczne, e-maile i listy. Możesz go także używać do łatwego tłumaczenia tekstu między różnymi językami lub otrzymywania pomocy i sugestii dotyczących kodowania.


 

Przejdź do strony głównej Wróć do kategorii Blog IT
Korzystanie z tej witryny oznacza wyrażenie zgody na wykorzystanie plików cookies. Więcej informacji możesz znaleźć w naszej Polityce Cookies.
Nie pokazuj więcej tego komunikatu