Skip to content

Se detallarán los pasos para unirse a la comunidad de Hugging Face 🤗 y las primeras acciones para aprender a navegar en la plataforma.

Notifications You must be signed in to change notification settings

binarybrains-upiicsa/HugginFace-Community

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

8 Commits
 
 

Repository files navigation

HugginFace-Community

Se detallarán los pasos para unirse a la comunidad de Hugging Face 🤗 y las primeras acciones para aprender a navegar en la plataforma.

Únete a nuestra gran Comunidad de Hugging Face donde estaremos creando, desarrollando y experimentando con modelos de Fundacionales, Machine Learning y Deep Learning!

Únete a la Comunidad 🤗💙

image
Uso del Model Hub 🤗

Apartir de este video vas a poder entender la navegación dentro de la plataforma de Huggign Face

Mira el video 🤓☝️

Mira el video 🤓☝️

Mira la documentación 🤓☝️

Generación de tokens en Hugging Face 🤗

Con la ayuda de un feature llamado Serverless API, nos permitirá usar modelos directamente desde la nube de Hugging Face 🤗 solo con tu token, sin necesidad de instalar librerías, descargar pesos o desplegar entornos.
Además, este token nos dará acceso a funcionalidades adicionales como:

  • Descargar modelos privados o con licencia restringida.
  • Subir y gestionar nuestros propios modelos y datasets en el Hub.

Instrucciones

  • Entraremos a Hugging Face
  • Daremos permisos de lectura a nuestro token
    478645250-5b62c83b-b616-442b-ae8f-420a3dc1e311
Uso de LLM's en Hugging Face 🤗 Haremos uso de nuestro token generado en HF 🤗 para poder hacer uso de los modelos que se encuentran aquí.

En tu terminal, instala el Hugging Face Hub Python client y haz log in:

pip install huggingface_hub
hf auth login

Una vez ejecutes el hf auth login tendrás que pegar tu TOKEN generado anteriormente para logearte y poder hacer uso de el en tu código :

Untitled

Python

import os
from huggingface_hub import InferenceClient

client = InferenceClient()

completion = client.chat.completions.create(
 model="openai/gpt-oss-120b",
 messages=[
     {
         "role": "user",
         "content": "How many 'G's in 'huggingface'?"
     }
 ],
)

print(completion.choices[0].message)

Aquí esta otra forma en la cual agregamos el TOKEN en forma de variable en nuestro código:

import os
from huggingface_hub import InferenceClient

os.environ["HF_TOKEN"] = "TU_TOKEN_AQUI"

client = InferenceClient("google/gemma-2-2b-it", token=os.environ["HF_TOKEN"])

resp = client.chat_completion(
 messages=[{"role": "user",
            "content": "Escribe un poema sobre un gato y un perro que son amigos"}],
 max_tokens=120,
 temperature=0.7,
)

print(resp.choices[0].message["content"])

JavaScript

npm install @huggingface/inference
import { InferenceClient } from "@huggingface/inference";

const client = new InferenceClient(process.env.HF_TOKEN);

const chatCompletion = await client.chatCompletion({
  model: "deepseek-ai/DeepSeek-V3-0324",
  messages: [
    {
      role: "user",
      content: "How many 'G's in 'huggingface'?",
    },
  ],
});

console.log(chatCompletion.choices[0].message);

Podrás seleccionar distintos tipos de modelos los cuales podrás encontrarlos en el Hub de Hugging Face Hugging Face Models 🤗

image

Así mismo vas a poder encontrar modelos que se puedan ajustar mejor a cada tipo de tarea que tu necesites

image

About

Se detallarán los pasos para unirse a la comunidad de Hugging Face 🤗 y las primeras acciones para aprender a navegar en la plataforma.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published