Sus inicios se remontan a casi cien años atrás
No se te culparía por pensar que la IA verdaderamente comenzó en los últimos dos años. Pero la IA lleva mucho tiempo en desarrollo, incluida la mayor parte del siglo XX. Hoy en día es difícil levantar un teléfono o una computadora portátil sin ver algún tipo de función de inteligencia artificial, pero eso se debe únicamente a que el trabajo se remonta a casi cien años atrás.
Los inicios conceptuales de la IA
Por supuesto, la gente se ha estado preguntando si podríamos fabricar máquinas que piensen desde que las tenemos.
El concepto moderno provino de Alan Turing, un renombrado matemático conocido por su trabajo para descifrar el código "irrompible" de la Alemania nazi producido por su máquina Enigma durante la Segunda Guerra Mundial. Como destaca el New York Times, Turing esencialmente predijo lo que podría llegar a ser (y sería) la computadora, imaginándola como "una máquina para todas las tareas posibles".
Pero fue lo que Turing escribió en “Computing Machinery and Intelligence” lo que cambió las cosas para siempre: El informático planteó la pregunta: "¿Pueden pensar las máquinas?", pero también argumentó que este marco era el enfoque equivocado. En cambio, propuso un experimento mental llamado "El juego de la imitación".
Imagina que tienes tres personas: un hombre (A), una mujer (B) y un interrogador, separados en tres habitaciones. El objetivo del interrogador es determinar qué jugador es el hombre y cuál es la mujer utilizando únicamente comunicación basada en texto. Si ambos jugadores fueran sinceros en sus respuestas, no sería una tarea tan difícil. Pero si uno o ambos deciden mentir, la situación se vuelve mucho más desafiante.
Pero el objetivo del Juego de la Imitación no es poner a prueba la capacidad de deducción de un ser humano. Más bien, Turing te pide que imagines una máquina tomando el lugar del jugador A o B. ¿Podría la máquina engañar efectivamente al interrogador haciéndole creer que era un humano?
Poniendo en marcha la idea de las redes neuronales
Turing fue la chispa más influyente para el concepto de IA, pero fue Frank Rosenblatt quien realmente impulsó la práctica de la tecnología, aunque nunca la vio llegar a buen término. Rosenblatt creó el "Perceptrón", una computadora modelada según cómo funcionan las neuronas en el cerebro, con la capacidad de aprender nuevas habilidades por sí misma.
La computadora tiene una red neuronal de una sola capa y funciona así: le pides a la máquina que haga una predicción sobre algo, por ejemplo, si una tarjeta perforada está marcada a la izquierda o a la derecha. Si la computadora lo hace mal, se ajusta para ser más precisa. Tras miles o incluso millones de intentos, "aprende" las respuestas correctas en lugar de tener que predecirlas.
Ese diseño se basa en neuronas: tienes una entrada, como una información que quieres que la computadora reconozca. La neurona toma los datos y, basándose en su conocimiento previo, produce la salida correspondiente. Si esa salida es incorrecta, se lo dices a la computadora y ajusta el "peso" de la neurona para producir un resultado que espera que se acerque más a la salida deseada. Con el tiempo, encontrará el peso correcto y la computadora habrá "aprendido" con éxito.
Desafortunadamente, a pesar de algunos prometedores intentos, el Perceptrón simplemente no pudo llevar a cabo las teorías y afirmaciones de Rosenblatt, y se agotó el interés tanto en él como en la práctica de la inteligencia artificial. Sin embargo, como sabemos hoy, Rosenblatt no se equivocó: su máquina era demasiado simple. La red neuronal del Perceptrón tenía solo una capa, lo que no es suficiente para permitir el aprendizaje automático en ningún nivel significativo.
Muchas capas hacen que funcione el aprendizaje automático
Eso es lo que Geoffrey Hinton descubrió en la década de 1980: mientras Turing postuló la idea y Rosenblatt creó las primeras máquinas, Hinton impulsó la IA a su iteración actual al teorizar que la naturaleza ya había descifrado la IA basada en redes neuronales en el cerebro humano. Él y otros investigadores, como Yann LeCun y Yoshua Bengio, demostraron que las redes neuronales construidas sobre múltiples capas y una gran cantidad de conexiones pueden permitir el aprendizaje automático.
Durante las décadas de 1990 y 2000, los investigadores demostraron lentamente el potencial de las redes neuronales. LeCun, por ejemplo, creó una red neuronal que podía reconocer caracteres escritos a mano. Pero aún así fue lento: si bien las teorías eran acertadas, las computadoras no eran lo suficientemente potentes para manejar la cantidad de datos necesarios para ver todo el potencial de la IA.
La Ley de Moore encuentra una manera, por supuesto, y alrededor de 2012, tanto el hardware como los conjuntos de datos habían avanzado hasta el punto que el aprendizaje automático despegó: De repente, los investigadores pudieron entrenar redes neuronales para hacer cosas que nunca antes habían podido hacer, y comenzamos a ver la IA en acción en todo, desde asistentes inteligentes hasta automóviles autónomos.
Y luego, a finales de 2022, ChatGPT explotó, mostrando tanto a los profesionales, como a los entusiastas y al público en general lo que la IA realmente podía hacer, y desde entonces hemos estado en un viaje salvaje. No sabemos qué nos depara el futuro de la IA: todo lo que podemos hacer es observar hasta dónde ha llegado la tecnología, qué podemos hacer con ella ahora e imaginar hacia dónde vamos a partir de ahora.