¿Cómo funcionan las herramientas de "IA" como ChatGPT?
Podría decirse que la angustia con la IA (Inteligencia Artificial) nunca ha sido mayor. Algunos expertos predicen que la singularidad de la IA podría ocurrir en la próxima década, y las recientes capturas de pantalla de la nueva IA de búsqueda de Bing de Microsoft que expresan miedos y deseos aparentemente humanos hacen que algunos se pregunten si ya está aquí.
Es fácil ver por qué se está extendiendo este sentimiento. La persona promedio escucha el término "IA" y probablemente piensa en Skynet o HAL 9000: sofisticadas máquinas que poseen una autoconciencia similar a la humana y están controladas por poderosos procesadores tan complejos como el cerebro humano.
Sin embargo, en Hollywood la IA es un tipo muy diferente de "IA" en comparación con la realidad de herramientas como Midjourney, ChatGPT o los asistentes de búsqueda de Google y Microsoft que están en los titulares.
De hecho, se podría argumentar que etiquetar chatbots, generadores de arte o herramientas de programación automatizada como "IA" es un nombre inapropiado o, más probablemente, solo una herramienta de marketing.
¿Cómo funcionan las herramientas de "IA" como ChatGPT?
En los términos más simples, estas herramientas de "IA" son programas creados para arrojar resultados a partir de las entradas de los usuarios, y requieren una vigilancia externa de los ingenieros y usuarios para ajustar su rendimiento. El software busca en sus bancos de datos información que coincida con la solicitud del usuario, la ensambla y la modifica según sea necesario, luego se la repite al usuario. Como Ted Chiang escribió recientemente en el New Yorker, el proceso está más cerca de hacer borrosas fotocopias de trabajos existentes y no de crear nuevos trabajos a partir de una página en blanco.
En otras palabras, los artículos, el arte o el código generados por IA parecen tan humanos porque están basados en materiales existentes hechos por humanos. Las imágenes de Midjourney son evocadoras porque se copian de pinturas, ilustraciones y fotografías realizadas por personas reales que entienden la composición y la teoría del color. Las respuestas de Bing parecen inquietantemente humanas porque repiten texto escrito por humanos.
Para ser justos, esta es una tecnología impresionante que es difícil de construir y aún más difícil de ajustar para obtener resultados confiables. El hecho de que funcione en absoluto es notable. Pero no importa lo que le diga cualquier reportero del New York Times, dentro de estas máquinas no existe un "fantasma" que aprende a escribir, dibujar o dar terapia de conversación, deseando estar vivo.
Sin embargo, las personas malinterpretan la sofisticación y el poder de estas herramientas como evidencia de que de alguna manera son conscientes. O al menos al borde de la conciencia.
Y no se equivoquen: las personas que fabrican estas herramientas lo saben y están más que felices de dejar que la gente crea que su software es consciente y está vivo. Es más probable que las personas prueben sus productos si creen que allí hay algo que está pensando.
Cuanto más impresionantes y "realistas" sean las interacciones de Bing IA o los resultados de imágenes de Midjourney, es más probable que las personas sigan usándolos y, como señala el periodista Ed Zitron, es más probable que las personas paguen por ellos. Es por eso que ChatGPT se conoce como una IA en lugar de un "generador de texto predictivo". Es simple marketing.
Puede que la IA no esté viva, pero sigue siendo un problema
Pero ¿Qué pasa con el futuro? ¿No es posible que las computadoras se conviertan en seres conscientes, conscientes de sí mismos, capaces de un aprendizaje autodirigido y una producción artística como un ser humano?
Bueno, claro, es posible, pero los científicos y los filósofos aún debaten qué es la conciencia, y mucho más cómo surge en la vida biológica en primer lugar. Tendremos que responder a estas preguntas antes de que la conciencia artificial en maquinaria no orgánica sea remotamente posible.
Y si se puede lograr la conciencia artificial, no sucederá en el corto plazo, y ciertamente no aparecerá espontáneamente en Midjourney o ChatGPT.
Pero si un levantamiento de robots finalmente tiene lugar en un futuro lejano debería ser una preocupación menor en comparación con los problemas materiales que plantea en este momento la automatización de IA para el trabajo, la privacidad y la libertad de datos.
Las empresas están despidiendo a escritores y profesionales de los medios y reemplazándolos con generación de contenido de IA. Las herramientas de arte de IA utilizan habitualmente materiales con derechos de autor para generar imágenes, y la pornografía falsa profunda es un problema cada vez mayor. Las firmas tecnológicas están cambiando a un código poco confiable generado por máquinas que a menudo es menos seguro que el código escrito por humanos. Estos cambios no suceden porque el contenido generado por IA sea mejor (decididamente es peor en la mayoría de los casos), sino porque es más barato de producir.
Estos problemas son mucho más amenazantes que retorcernos las manos sobre si Bing tiene conciencia o no, y es crucial reconocer cuántos de los proveedores de esta tecnología de "IA" están utilizando esas ansiedades para comercializar sus productos.