El científico Geoffrey Hinton, considerado como el ‘padre’ de la inteligencia artificial por sus aportes a su desarrollo, advirtió en una entrevista para The New York Times sobre los riesgos que el trabajo de su vida puede suponer para la humanidad.
Hinton, galardonado en 2018 con el Premio Turing, desarrolló en 2012 junto con dos estudiantes de la Universidad de Toronto la tecnología fundacional de los sistemas de inteligencia artificial, usada hoy en día por grandes compañías como OpenAI, Google o Microsoft para crear sus plataformas de inteligencia artificial generativa.
El experto trabajó en Google durante más de una década; sin embargo, decidió renunciar a su puesto en el gigante tecnológico hace un mes para poder hablar libremente sobre las consecuencias que el mal uso de la inteligencia artificial generativa podría tener sobre la humanidad.
Una tecnología potencialmente peligrosa
De acuerdo al ingeniero, los nuevos sistemas de inteligencia artificial podrían suponer grandes avances en áreas que van desde la investigación médica hasta la educación. No obstante, advirtió, esta tecnología puede ser una herramienta de desinformación y podría ser un riesgo para la humanidad. «Es difícil ver cómo se puede evitar que los malos actores la utilicen para cosas malas», comentó.
Tras dejar su empleo, Hinton se ha unido oficialmente a un conjunto de científicos que ha criticado y manifestado los riesgos que las compañías tecnológicas están corriendo al competir por desarrollar productos basados en inteligencia artificial generativa, como es el caso de Google y Microsoft.
Según señaló, hasta el año pasado Google actuó como un «administrador adecuado» de la tecnología y ponía un especial cuidado en evitar la creación de una plataforma que eventualmente pudiera causar daño.
Geoffrey Hinton fue un pionero de la inteligencia artificial. En 2012, el Dr. Hinton y dos de sus estudiantes de posgrado en la Universidad de Toronto crearon una tecnología que se convirtió en la base intelectual de los sistemas de inteligencia artificial que las empresas más grandes de la industria tecnológica creen que es clave para su futuro.
El lunes, sin embargo, se unió oficialmente a un creciente coro de críticos que dicen que esas empresas corren hacia el peligro con su campaña agresiva para crear productos basados en inteligencia artificial generativa, la tecnología que impulsa a los chatbots populares como ChatGPT.
El Dr. Hinton dijo que renunció a su trabajo en Google, donde trabajó durante más de una década y se convirtió en una de las voces más respetadas en el campo, por lo que puede hablar libremente sobre los riesgos de la IA. Una parte de él, él dijo, ahora lamenta el trabajo de su vida.
El viaje del Dr. Hinton de pionero de la IA a agorero marca un momento notable para la industria de la tecnología en quizás su punto de inflexión más importante en décadas. Los líderes de la industria creen que los nuevos sistemas de inteligencia artificial podrían ser tan importantes como la introducción del navegador web a principios de la década de 1990 y podrían generar avances en áreas que van desde la investigación de medicamentos hasta la educación.
Pero a muchos expertos de la industria les preocupa el temor de que estén liberando algo peligroso en la naturaleza. La IA generativa ya puede ser una herramienta para la desinformación. Pronto, podría ser un riesgo para los puestos de trabajo. En algún momento, dicen los mayores preocupados de la tecnología, podría ser un riesgo para la humanidad.
¿Qué peligros supone la inteligencia artificial?
Después de que OpenAI, una empresa emergente de San Francisco, lanzara una nueva versión de ChatGPT en marzo , más de 1000 líderes tecnológicos e investigadores firmaron una carta abierta en la que pedían una moratoria de seis meses en el desarrollo de nuevos sistemas porque las tecnologías de IA plantean «profundos riesgos para la sociedad». y la humanidad.”
Varios días después, 19 líderes actuales y anteriores de la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica de 40 años, publicaron su propia carta advirtiendo sobre los riesgos de la IA. Ese grupo incluía a Eric Horvitz, director científico de Microsoft, que ha implementado la tecnología de OpenAI en una amplia gama de productos, incluido su motor de búsqueda Bing .
Ahora que Microsoft ha introducido en su motor de búsqueda, Bing, un chatbot de inteligencia artificial, se ha iniciado una competencia para desarrollar esta tecnología que podría «ser imposible de detener».
En este contexto, Hinton comentó que su preocupación inmediata es que Internet se llene de fotos, videos, textos e información falsa, provocando que el internauta promedio «ya no sea capaz de saber qué es verdad«.
Por otra parte, señaló que también le preocupa que los sistemas de inteligencia artificial puedan afectar al mercado laboral, ya que, al tener la capacidad de ocuparse de tareas rutinarias, podrían sustituir a asistentes jurídicos, asistentes personales, traductores, entre otras ocupaciones.
Asimismo, comentó que, a medida que las personas y las empresas permiten que los sistemas de inteligencia artificial no solo generen su propio código informático, sino que lo ejecuten por sí mismos, estos podrían desarrollar comportamientos inesperados, por lo que teme que algún día esta tecnología pueda dar paso a las armas verdaderamente autónomas, como los robots asesinos que se han popularizado en la ciencia ficción.
«La idea de que estas cosas puedan llegar a ser más inteligentes que las personas es algo que algunos creían, pero la mayoría de la gente pensaba que estaba muy lejos de la realidad. Yo pensaba que faltaban entre 30 y 50 años, o incluso más. Obviamente, ya no pienso eso», comentó.
En este sentido, Hinton declaró que en cierta parte se arrepiente de haber creado los fundamentos que dieron origen a esta tecnología. «Me consuelo con la excusa habitual: si yo no lo hubiera hecho, otro lo habría hecho».
Historia del Dr. Hinton
El Dr. Hinton, a menudo llamado “el padrino de la IA”, no firmó ninguna de esas cartas y dijo que no quería criticar públicamente a Google ni a otras empresas hasta que dejara su trabajo. Notificó a la empresa el mes pasado que renunciaba y el jueves habló por teléfono con Sundar Pichai, director ejecutivo de la empresa matriz de Google, Alphabet. Se negó a discutir públicamente los detalles de su conversación con el Sr. Pichai.
El científico jefe de Google, Jeff Dean, dijo en un comunicado: «Seguimos comprometidos con un enfoque responsable de la IA. Estamos continuamente aprendiendo a comprender los riesgos emergentes al mismo tiempo que innovamos con audacia».
El Dr. Hinton, un expatriado británico de 75 años, es un académico de toda la vida cuya carrera estuvo impulsada por sus convicciones personales sobre el desarrollo y el uso de la IA. En 1972, como estudiante de posgrado en la Universidad de Edimburgo, el Dr. Hinton adoptó una idea llamada red neuronal. Una red neuronal es un sistema matemático que aprende habilidades mediante el análisis de datos. En ese momento, pocos investigadores creían en la idea. Pero se convirtió en el trabajo de su vida.
En la década de 1980, el Dr. Hinton era profesor de ciencias de la computación en la Universidad Carnegie Mellon, pero dejó la universidad y se fue a Canadá porque dijo que no estaba dispuesto a recibir fondos del Pentágono. En ese momento, la mayor parte de la investigación de IA en los Estados Unidos fue financiada por el Departamento de Defensa. El Dr. Hinton se opone profundamente al uso de la inteligencia artificial en el campo de batalla, lo que él llama «soldados robot».
En 2012, el Dr. Hinton y dos de sus estudiantes en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotos y aprender a identificar objetos comunes, como flores, perros y automóviles.
Google gastó $44 millones para adquirir una empresa iniciada por el Dr. Hinton y sus dos alumnos. Y su sistema condujo a la creación de tecnologías cada vez más poderosas, incluidos nuevos chatbots como ChatGPT y Google Bard . El Sr. Sutskever se convirtió en científico jefe de OpenAI. En 2018, el Dr. Hinton y otros dos colaboradores de mucho tiempo recibieron el Premio Turing , a menudo llamado «el Premio Nobel de la computación», por su trabajo en redes neuronales.
Casi al mismo tiempo, Google, OpenAI y otras empresas comenzaron a construir redes neuronales que aprendían de grandes cantidades de texto digital. El Dr. Hinton pensó que era una forma poderosa para que las máquinas entendieran y generaran lenguaje, pero era inferior a la forma en que los humanos manejaban el lenguaje.
Luego, el año pasado, cuando Google y OpenAI crearon sistemas utilizando cantidades de datos mucho mayores, su opinión cambió. Todavía creía que los sistemas eran inferiores al cerebro humano en algunos aspectos, pero pensaba que estaban eclipsando la inteligencia humana en otros. “Tal vez lo que sucede en estos sistemas”, dijo, “es en realidad mucho mejor que lo que sucede en el cerebro”.
A medida que las empresas mejoran sus sistemas de IA, cree, se vuelven cada vez más peligrosos. “Mira cómo era hace cinco años y cómo es ahora”, dijo sobre la tecnología de IA. “Toma la diferencia y propágala hacia adelante. Eso asusta.»
Hasta el año pasado, dijo, Google actuó como un «administrador adecuado» de la tecnología, con cuidado de no lanzar algo que pudiera causar daño. Pero ahora que Microsoft ha aumentado su motor de búsqueda Bing con un chatbot, lo que desafía el negocio principal de Google, Google está compitiendo para implementar el mismo tipo de tecnología . Los gigantes tecnológicos están atrapados en una competencia que podría ser imposible de detener, dijo el Dr. Hinton.
Su preocupación inmediata es que Internet se inundará con fotos , videos y textos falsos , y la persona promedio «ya no podrá saber qué es verdad».
También le preocupa que, con el tiempo, las tecnologías de IA trastornen el mercado laboral. Hoy en día, los chatbots como ChatGPT tienden a complementar a los trabajadores humanos, pero podrían reemplazar a los asistentes legales, asistentes personales, traductores y otros que manejan tareas rutinarias. “Se quita el trabajo pesado”, dijo. “Podría quitar más que eso”.
En el futuro, le preocupa que las versiones futuras de la tecnología representen una amenaza para la humanidad porque a menudo aprenden un comportamiento inesperado de la gran cantidad de datos que analizan . Esto se convierte en un problema, dijo, ya que las personas y las empresas permiten que los sistemas de inteligencia artificial no solo generen su propio código de computadora, sino que en realidad ejecuten ese código por su cuenta. Y teme el día en que las armas verdaderamente autónomas, esos robots asesinos, se hagan realidad.
“La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían”, dijo. “Pero la mayoría de la gente pensó que estaba muy lejos. Y pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”.
Muchos otros expertos, incluidos muchos de sus estudiantes y colegas, dicen que esta amenaza es hipotética. Pero el Dr. Hinton cree que la carrera entre Google y Microsoft y otros se convertirá en una carrera global que no se detendrá sin algún tipo de regulación global.
Pero eso puede ser imposible, dijo. A diferencia de las armas nucleares, dijo, no hay forma de saber si las empresas o los países están trabajando en la tecnología en secreto. La mejor esperanza es que los principales científicos del mundo colaboren en formas de controlar la tecnología. “No creo que deban escalar esto más hasta que hayan entendido si pueden controlarlo”, dijo.
El Dr. Hinton dijo que cuando la gente le preguntaba cómo podía trabajar en tecnología que era potencialmente peligrosa, parafraseaba a Robert Oppenheimer, quien dirigió el esfuerzo de EE. UU. para construir la bomba atómica: “Cuando ves algo que es técnicamente dulce, adelante y hazlo.”
Ya no dice eso.