03/03/2026
Muchos creyeron que estábamos inventando un nuevo Copilot, un nuevo Gemini, al que le podríamos hacer preguntas…
Los que lo presentaron dijeron que era el primer Gran Modelo de Lenguaje abierto diseñado con identidad propia desde América Latina y el Caribe. (Un LLM es también llamado un “modelo de lenguaje de gran tamaño” o “modelo de lenguaje grande”.)
En un afán por darle un sentido práctico a la noticia, muchas personas importantes (con muchos seguidores) sugirieron la utilización de Copuchat. Pero, en realidad, Copuchat es un sistema de recolección de datos para Latam-GPT. Se trata de iniciativas que invitan a la comunidad a compartir y validar contenidos. Los franceses están ocupando compar:IA, que, al igual que Copuchat, busca integrar las preferencias y necesidades culturales de los usuarios, con un enfoque centrado en la variabilidad lingüística de la región.
Latam-GPT es fruto de un trabajo coordinado por el Centro Nacional de Inteligencia Artificial (Cenia) y que contó con la colaboración del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación, el Banco de Desarrollo de América Latina y el Caribe (CAF), Amazon Web Services (AWS) y el centro tecnológico Data Observatory.
Esta herramienta no es un “chat” con el que se puede interactuar como ChatGPT, Copilot, Gemini, Claude, Perplexity o Grok (todos productos estadounidenses, dicho sea de paso), sino que se trata de una “gran base de datos” entrenada a partir de información de la región, que puede servir para desarrollar aplicaciones tecnológicas, explicó el ministro de Ciencia, Aldo Valle.
El objetivo de Latam-GPT es contrarrestar el sesgo que están presentando los modelos de IA entrenados con datos en inglés, con datos del hemisferio norte. La idea es que sirva para comprender los matices lingüísticos y los contextos culturales de nuestra región, del hemisferio sur, de Latinoamérica.
Porque, como dijo Benedetti, el sur también existe.
Según el repositorio web más usado para preentrenamiento de modelos de IA (Common Crawl), el idioma inglés es lejos el más utilizado (41%). El español no pasa del 4,6%; está en el séptimo lugar, por detrás del inglés, ruso, chino, alemán, japonés y francés.
· Para entrenar a Latam-GPT se reunieron más de 8 terabytes de información.
· Se creó con apenas 550.000 dólares de financiamiento.
· Su primera versión se desarrolló en la nube de Amazon Web Services (AWS), pero en el futuro será entrenada en el Centro de Supercómputo que se instalará en la Universidad de Tarapacá con un costo de 5 millones de dólares. Se espera que esté funcionando en junio.
· El modelo se desarrolló sobre una arquitectura base Llama 3.1, con 70.000 millones de parámetros (70B), complementada con un corpus regional.
· Latam-GPT fue posible gracias a una colaboración entre más de 60 instituciones de 15 países, que aportaron datos, conocimiento y experiencia técnica.
Para el director de Cenia, Álvaro Soto, “Latam-GPT no es un fin en sí mismo, sino una base tecnológica abierta que permite desarrollar modelos derivados y aplicaciones adaptadas a distintos contextos regionales, apoyadas por herramientas y materiales que facilitan su uso y evolución”.
Esto permitirá que Latinoamérica no sólo sea usuaria de la Inteligencia Artificial (IA), sino que, además, sea capaz de crear soluciones propias a partir de capacidades compartidas.
CRÉDITO DE LA IMAGEN: LATAM-GPT