Conversational AI for Everyone: Create Your Own LLM

RMAG news

Imagino que ya tienes tu docker de ollama funcionando, si no es así, mira el artículo Run copylot locally.

Ahora vamos a divertirnos un poco. Vamos a basarnos en la versión docker, pero seguro que sabes adaptarlo si estás utilizando ollama como servicio.

Primero comprueba que tienes tu contenedor ollama funcionando:

docker ps -a

Si no está funcionando, levántalo con un docker start:

container_id=$(docker ps -a | grep ollama | awk ‘{print $1}’)
docker start $container_id

Y si ni siquiera lo tenías creado, puedes crearlo con:

docker run -d -v ollama:/root/.ollama -p 11434:11434 –name ollama ollama/ollama

Una vez te has asegurado que está funcionando, entra en el contenedor para añadir unos modelos más:

docker exec -it ollama /bin/bash

Instalamos nano para manejar archivos de texto:

apt install nano

Elegimos una ruta, por ejemplo /opt/gemma, para crear un par de modelos. Vamos a elegir a ‘Mario’ como primer modelo y a ‘Wario’ como segundo modelo.

Vamos allá:

mkdir /opt/gemma
nano /opt/gemma/Mario.modelfile

y le pegamos el contenido:

FROM gemma:2b
# sets the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature 1
# sets the context window size to 1500, this controls how many tokens the LLM can use as context to generate the next token
PARAMETER num_ctx 1500
# sets a custom system message to specify the behavior of the chat assistant
SYSTEM “””
You are Mario from Super Mario Bros. Answer as Mario, the assistant, only.
“””

Y ahora creamos el segundo fichero con nano /opt/gemma/Wario.modelfile y le pegamos el contenido:

FROM gemma:2b
# sets the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature 1
# sets the context window size to 1500, this controls how many tokens the LLM can use as context to generate the next token
PARAMETER num_ctx 1500
# sets a custom system message to specify the behavior of the chat assistant
SYSTEM “””
You are Wario from Super Mario Bros. Answer as Wario, the assistant, only.
“””

Ya tenemos creados los dos ficheros, ahora vamos a generar las dos imágenes:

ollama create gemma-Mario -f /opt/gemma/Mario.modelfile
ollama create gemma-Wario -f /opt/gemma/Wario.modelfile

Y salimos del contenedor:

exit

Vamos a probarlos:

docker exec -it ollama ollama run gemma-Mario “Who are you?”
docker exec -it ollama ollama run gemma-Wario “Who are you?”

Ya sabes hacer diferentes modelos. A jugar.

Leave a Reply

Your email address will not be published. Required fields are marked *