Se detallarán los pasos para unirse a la comunidad de Hugging Face 🤗 y las primeras acciones para aprender a navegar en la plataforma.
Únete a nuestra gran Comunidad de Hugging Face donde estaremos creando, desarrollando y experimentando con modelos de Fundacionales, Machine Learning y Deep Learning!

Uso del Model Hub 🤗
Apartir de este video vas a poder entender la navegación dentro de la plataforma de Huggign Face
Mira el video 🤓☝️
Generación de tokens en Hugging Face 🤗
Con la ayuda de un feature llamado Serverless API, nos permitirá usar modelos directamente desde la nube de Hugging Face 🤗 solo con tu token, sin necesidad de instalar librerías, descargar pesos o desplegar entornos.
Además, este token nos dará acceso a funcionalidades adicionales como:
- Descargar modelos privados o con licencia restringida.
- Subir y gestionar nuestros propios modelos y datasets en el Hub.
- Entraremos a Hugging Face
- Daremos permisos de lectura a nuestro token
Uso de LLM's en Hugging Face 🤗
Haremos uso de nuestro token generado en HF 🤗 para poder hacer uso de los modelos que se encuentran aquí.En tu terminal, instala el Hugging Face Hub Python client y haz log in:
pip install huggingface_hub
hf auth login
Una vez ejecutes el hf auth login tendrás que pegar tu TOKEN generado anteriormente para logearte y poder hacer uso de el en tu código :
import os
from huggingface_hub import InferenceClient
client = InferenceClient()
completion = client.chat.completions.create(
model="openai/gpt-oss-120b",
messages=[
{
"role": "user",
"content": "How many 'G's in 'huggingface'?"
}
],
)
print(completion.choices[0].message)
Aquí esta otra forma en la cual agregamos el TOKEN en forma de variable en nuestro código:
import os
from huggingface_hub import InferenceClient
os.environ["HF_TOKEN"] = "TU_TOKEN_AQUI"
client = InferenceClient("google/gemma-2-2b-it", token=os.environ["HF_TOKEN"])
resp = client.chat_completion(
messages=[{"role": "user",
"content": "Escribe un poema sobre un gato y un perro que son amigos"}],
max_tokens=120,
temperature=0.7,
)
print(resp.choices[0].message["content"])
npm install @huggingface/inference
import { InferenceClient } from "@huggingface/inference";
const client = new InferenceClient(process.env.HF_TOKEN);
const chatCompletion = await client.chatCompletion({
model: "deepseek-ai/DeepSeek-V3-0324",
messages: [
{
role: "user",
content: "How many 'G's in 'huggingface'?",
},
],
});
console.log(chatCompletion.choices[0].message);
Podrás seleccionar distintos tipos de modelos los cuales podrás encontrarlos en el Hub de Hugging Face Hugging Face Models 🤗

Así mismo vas a poder encontrar modelos que se puedan ajustar mejor a cada tipo de tarea que tu necesites
