Qué es GPT4All y cómo funciona

GPT4All

Por qué usar GPT4All en lugar de ChatGPT

Los modelos GPT de OpenAI han revolucionado el procesamiento del lenguaje natural (NLP por sus singlas en inglés), pero a menos que pagues por el acceso premium a los servicios de OpenAI, no podrás ajustar e integrar tus modelos GPT en tus aplicaciones.

Además, OpenAI tendrá acceso a todas tus conversaciones, lo que puede ser un problema de seguridad si usad ChatGPT para negocios y otras áreas más sensibles de tu vida. Si no estás interesado en esto, puedes probar GPT4All.

Entonces, ¿Qué es exactamente GPT4All? ¿Cómo funciona y por qué usarlo en lugar de ChatGPT?

¿Qué es GPT4All?

GPT4All es un ecosistema de código abierto que se utiliza para integrar LLMs (Large Language Models, modelos grandes de lenguaje) en aplicaciones sin pagar una suscripción de plataforma o hardware. Fue creado por Nomic AI, una empresa de cartografía de información que tiene como objetivo mejorar el acceso a los recursos de IA.

¡GPT4All está diseñado para ejecutarse en PC modernas o relativamente modernas sin necesidad de una conexión a Internet o incluso una GPU! Esto es posible ya que la mayoría de los modelos proporcionados por GPT4All se han cuantificado para que sean tan pequeños como unos pocos gigabytes, lo que requiere solo de 4 a 16 GB de RAM para funcionar.

Esto permite que las empresas más pequeñas, las organizaciones y los investigadores independientes usen e integren un LLM para aplicaciones específicas. Y con GPT4All fácilmente instalable a través de un instalador de un solo clic, las personas pueden usar ahora GPT4All y muchos de sus LLMs para la creación de contenido, la escritura de código, la comprensión de documentos y la recopilación de información.

¿Por qué usar GPT4ALL en lugar de ChatGPT?

Hay varias razones por las que es posible que desees utilizar GPT4All en lugar de ChatGPT.

Portabilidad: los modelos provistos por GPT4All solo requieren de cuatro a ocho gigabytes de memoria de almacenamiento, no requieren una GPU para funcionar y se pueden guardar fácilmente en una unidad flash USB con el instalador de un solo clic de GPT4All. Esto hace que GPT4All y sus modelos sean realmente portátiles y utilizables en casi cualquier computadora moderna.

Privacidad y seguridad: como se explicó anteriormente, a menos que tengas acceso a ChatGPT Plus, OpenAI puede acceder a todas tus conversiones de ChatGPT. GPT4All se centra en la transparencia y privacidad de los datos; tus datos solo se guardarán en tu hardware local a menos que los compartas intencionalmente con GPT4All para ayudar a hacer crecer sus modelos.

Modo sin conexión: GPT es un modelo patentado que requiere acceso a la API y una conexión constante a Internet para consultar o acceder al modelo. Si pierdes una conexión a Internet o tienes un problema con el servidor, no tendrás acceso a ChatGPT. Este no es el caso con GPT4All. Dado que todos los datos ya están almacenados en un paquete de cuatro a ocho gigabytes y la inferencia se realiza localmente, en GPT4All no necesitas una conexión a Internet para acceder a ningún modelo. Puedes continuar chateando y ajustando tu modelo incluso sin conexión a Internet.

Gratis y de código abierto: varios LLMs proporcionados por GPT4All tienen licencia GPL-2. Esto permite que cualquier persona ajuste e integre sus propios modelos para uso comercial sin necesidad de pagar la licencia.

Cómo funciona GPT4All

Como se discutió anteriormente, GPT4All es un ecosistema que se utiliza para entrenar e implementar LLMs localmente en tu computadora, ¡lo cual es una hazaña increíble! Por lo general, cargar un LLM estándar de 25 a 30 GB requeriría 32 GB de RAM y una GPU de nivel empresarial.

Para comparar, los LLMs que puedes usar con GPT4All solo requieren de 3 GB a 8 GB de almacenamiento y pueden funcionar con 4 GB a 16 GB de RAM. Esto hace posible ejecutar un LLM completo en un dispositivo edge sin necesidad de una GPU o asistencia de nube externa.

Los requisitos de hardware para ejecutar LLMs en GPT4All se han reducido significativamente gracias a la cuantificación de redes neuronales. Al reducir el peso de precisión y las activaciones en una red neuronal, muchos de los modelos proporcionados por GPT4All se pueden ejecutar en la mayoría de las computadoras relativamente modernas.

Los datos de entrenamiento utilizados en algunos de los modelos disponibles se recopilaron a través de "la pila", que son solo datos extraídos del contenido publicado públicamente en Internet. Luego, los datos se envían a la base de datos Atlas AI de Nomic AI, que se puede ver en función de las correlaciones en un mapa vectorial 2D fácil de ver (también conocido como base de datos vectorial AI).

base de datos Atlas de GPT4All

Al entrenar Nomic AI el modelo Groovy y usar datos disponibles públicamente, Nomic AI pudo lanzar el modelo en una licencia GPL abierta que permite que cualquiera lo use, incluso para aplicaciones comerciales.

Cómo instalar GPT4All

Instalar GPT4All es simple, y ahora que se ha lanzado la versión 2 de GPT4All, ¡es aún más fácil! La mejor manera de instalar GPT4All 2 es descargar el instalador de un solo clic:

Descargar: GPT4All para Windows, macOS o Linux (gratis)

Las siguientes instrucciones son para Windows, pero puede instalar GPT4All en todos los principales sistemas operativos.

Una vez descargado, haz doble clic en el instalador y selecciona Install. Windows Defender puede considerar que la instalación es maliciosa porque puede llevar mucho tiempo el proceso para que Microsoft proporcione firmas válidas para aplicaciones de terceros. Sin embargo, esto debería arreglarse pronto. Al momento de escribir, siempre que hayas descargado la aplicación GPT4All del sitio web oficial, debes estar seguro. Haz clic en Install Anyway (Instalar de todos modos) para instalar GPT4All.

Una vez que abras la aplicación, deberás seleccionar un modelo para usar. GPT4ALL te proporciona varios modelos, todos los cuales tendrán sus fortalezas y debilidades. Para saber qué modelo descargar, aquí hay una tabla que muestra sus fortalezas y debilidades.

Model

Size

Note

Parameters

Type

Quantization

Hermes

7.58 GB

  • Instruction Based
  • Gives long responses
  • Curated with 300,000 uncensored instructions
  • Cannot be used commercially
  •  

 

13 Billion

LLaMA

q4_0

GPT4All Falcon

3.78 GB

  • Fast responses
  • Instruction based
  • Licensed for commercial use
  •  

 

7 Billion

Falcon

q4_0

Groovy

8 GB

  • Fast responses
  • -Creative responses
  • Instruction based
  • Licensed for commercial use
  •  

 

7 Billion

GPT-J

q4_0

ChatGPT-3.5 Turbo

Minimal

  • Requires personal API
  • Will send your chats to OpenAI
  • GPT4All is only used to communicate with OpenAI
  •  

 

?

GPT

NA

ChatGPT-4

Minimal

  • Requires personal API
  • Will send your chats to OpenAI
  • GPT4All is only used to communicate with OpenAI
  •  

 

?

GPT

NA

Snoozy

7.58 GB

  • Instruction based
  • Slower than Groovy but with higher quality responses
  • Cannot be used commercially
  •  

 

13 Billion

LLaMA

q4_0

MPT Chat

4.52 GB

  • Fast responses
  • Chat based
  • Cannot be used commercially
  •  

 

7 Billion

MPT

q4_0

Orca

3.53 GB

  • Instruction based
  • Explains tuned datasets
  • Orca Research Paper dataset construction approaches
  • Licensed for commercial use
  •  

 

7 Billion

OpenLLaMA

q4_0

Vicuna

3.92 GB

  • Instruction based
  • Cannot be used commercially
  •  

 

7 Billion

LLaMA

q4_2

Wizard

3.92 GB

  • Instruction based
  • Cannot be used commercially
  •  

 

7 Billion

LLaMA

q4_2

Wizard Uncensored

7.58 GB

  • Instruction based
  • Cannot be used commercially
  •  

 

13 Billion

LLaMA

q4_0

Ten en cuenta que los modelos provistos tienen diferentes niveles de restricciones. No todos los modelos se pueden usar comercialmente de forma gratuita; algunos necesitarán más recursos de hardware, mientras que otros necesitarán una clave API. Los modelos menos restrictivos disponibles en GPT4All son Groovy, GPT4All Falcon y Orca.

¿Puedes entrenar los modelos de GPT4All?

Sí, pero no las versiones cuantificadas. Para ajustar de manera efectiva los modelos GPT4All, debes descargar los modelos sin procesar y usar GPU de nivel empresarial, como los aceleradores Instinct de AMD o las GPU Ampere o Hopper de NVIDIA. Además, deberás entrenar el modelo a través de un framework de entrenamiento de IA como LangChain, lo que requerirá algunos conocimientos técnicos.

Ajustar un modelo GPT4All requerirá algunos recursos monetarios, así como algunos conocimientos técnicos, pero si solo deseas alimentar un modelo GPT4All con datos personalizados, puedes seguir entrenando el modelo a través de la generación aumentada de recuperación (que ayuda a un modelo de lenguaje a acceder y comprender información fuera de su entrenamiento base para completar tareas). Puedes hacerlo solicitando a GPT4All que modele tus datos personalizados antes de hacer una pregunta. Los datos personalizados deben guardarse localmente y, cuando se te solicite, el modelo debería poder proporcionarte la información que proporcionaste una vez.

¿Deberías usar GTP4All?

La idea de GPT4All es proporcionar una plataforma de código abierto y de uso gratuito donde las personas puedan ejecutar grandes modelos de lenguaje en sus computadoras. Actualmente, GPT4All y sus modelos cuantificados son excelentes para experimentar, aprender y probar diferentes LLMs en un entorno seguro. Para cargas de trabajo profesionales, aún recomendamos usar ChatGPT ya que el modelo es significativamente más capaz.

En general, no hay ninguna razón por la que debas limitarte a uno. Dado que no se superpone su caso de uso, debes intentar usar ambos.