LOGO_AIR_IAB_N_HD.jpg

Geoffrey Hinton, el ‘padrino’ de la IA, deja Google y avisa de los peligros de esta tecnología

Este experto teme sobre todo que internet se vea inundado de falsos textos, fotos y vídeos, y que las nuevas herramientas remplacen a muchos trabajadores.

El británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la inteligencia artificial (IA), ha dejado su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías, según aseguró en una entrevista publicada este lunes por The New York Times. A menudo llamado el padrino de la IA, Hinton aseguró que a sus 75 años lamenta ahora haber dedicado su carrera a este ámbito. “Me consuelo con la excusa normal: si no hubiese sido yo, otro lo habría hecho”, señaló al diario neoyorquino. La voz de alarma se suma a las advertencias que en los últimos meses han hecho otros expertos, sobre todo a raíz del lanzamiento de la inteligencia artificial generativa como el popular ChatGPT y las grandes apuestas que los gigantes tecnológicos están haciendo en este ámbito. Hinton era vicepresidente de Ingeniería en Google.

“Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, dijo Hinton en la entrevista, en la que avisa sobre la excesiva velocidad a la que se están logrando avances. “Mire cómo era hace cinco años y cómo es ahora”, apuntó. “Tome la diferencia y propáguela hacia adelante. Eso asusta”, señaló Hinton, que el año pasado recibió el Premio Princesa de Asturias de Investigación Científica y Técnica junto a otros tres pioneros de la IA por su trabajo.

A corto plazo, este experto teme sobre todo que internet se vea inundado de falsos textos, fotos y vídeos, y que los ciudadanos no puedan ser capaces de distinguir lo que es real, pero también cree que estas tecnologías pueden reemplazar a muchos trabajadores y, más adelante, suponer incluso una amenaza para la humanidad. “Algunos creían en la idea de que estas cosas en realidad podrían volverse más inteligentes que las personas”, explicó. “Pero la mayoría de la gente pensaba que estaba muy lejos. Yo mismo pensaba que estaba muy lejos. Creía que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, añadió.

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA, una idea en línea con otros llamamientos públicos de personalidades del sector tecnológico que han pedido suspender temporalmente los experimentos. Hace unas semanas se conocía que más de un millar de empresarios, intelectuales e investigadores de primer nivel relacionados con esta tecnología habían firmado una carta abierta en la que solicitan una moratoria en su desarrollo para recapacitar sobre sus consecuencias.

Más concretamente, estos expertos pedían una pausa de “al menos seis meses en el desarrollo y pruebas de sistemas de IA más poderosos que GPT4″, la última versión del gran modelo de lenguaje que usa ChatGPT. La carta advierte de que este último modelo ya es capaz de competir con los humanos en un creciente número de tareas, y que podría usarse para destruir empleo y difundir desinformación. Por ello, reclaman un desarrollo seguro y solo cuando estén seguros de que sus efectos serán positivos. “Desafortunadamente”, asegura la carta, “este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”.

A través de Twitter, Hinton quiso puntualizar después que no deja Google para poder criticar a la empresa, sino para poder hablar de los peligros de la inteligencia artificial sin tener que preocuparse del impacto que esas opiniones causarían en la compañía en la que trabajaba, una empresa que según él “ha actuado de forma muy responsable”.

Geoffrey Hinton, profesor de la Universidad de Toronto (Canadá) y premio Fundación BBVA Fronteras del Conocimiento en 2017, desarrolló en 2004 los conceptos en los que se ha venido trabajando desde hace medio siglo y los ha orientado al aprendizaje mecánico y reconocimiento de elementos tan complejos como el habla o la imagen. Hinton creó una comunidad de investigación a la que se sumaron Yann LeCun, de la Universidad de New York, y Yoshua Bengio, de la de Montreal (Canadá). En 1986, Hinton inventó los algoritmos de retropropagación, fundamentales para el entrenamiento de redes neuronales. Con ellos, en 2012 consiguió crear una red neuronal convolucional llamada AlexNet, compuesta por 650.000 neuronas y entrenada con 1,2 millones de imágenes, que registró tan solo un 26% de errores en el reconocimiento de objetos y redujo a la mitad el porcentaje de sistemas anteriores. LeCun sumó una tecnología de reconocimiento óptico de caracteres.

“No me gustaban las primeras teorías de la inteligencia artificial (IA) porque se basaban mucho en la lógica y eso es algo que los humanos tardamos mucho en desarrollar”, explicó Hinton a EL PAÍS tras la concesión de su premio. El investigador explicó que estaba más interesado en conocer cómo funciona el cerebro humano, cuáles son los fundamentos del aprendizaje y en buscar la forma de aplicar esos principios a las máquinas. “El cerebro humano es la mejor máquina. Mi objetivo era comprender cómo trabaja la gente y simular ese sistema y creo que la mejor manera de hacerlo es construir modelos de redes neuronales artificiales”, explicó.

Fuente: El País