Si le pones números, a 7.951 millones de personas le interesará


Para que vean que la inventiva, creatividad e innovación pueden venir desde cualquier disciplina del saber, formal o popular, y puede ser reconocida en áreas distintas,  en esta oportunidad se presentarán las opiniones y preocupaciones de dos científicos pioneros de la IA, galardonados recientemente con el premio Nobel de Física 2024: John Hopfield y Geoffrey Hinton. 

“Los profesores John Hopfield (91) y Geoffrey Hinton (76) han sido galardonados este martes por la Real Academia Sueca de las Ciencias por sus «descubrimientos e invenciones” que han sido “fundamentales para el aprendizaje automático con redes neuronales artificiales», declaró el jurado.” (8-10-2024, BBC mundo).

Ahora, cuál es la otra  novedad relacionada, las alertas que hacen estos dos pioneros de la Inteligencia Artificial en esta etapa de auge, impulsada precisamente por las contribuciones lideradas por ellos en el aprendizaje automático, en particular el aprendizaje profundo. Por ello el título de la reflexión.

Un poco más  sobre estos científicos 

John Hopfield

El profesor John Hopfield nació el 15 de julio de 1933, en Chicago, Illinois, Estados Unidos, obtuvo su doctorado en física en la Universidad de Cornell y su área de investigación es la biología. Es profesor emérito de la Universidad de Princeton. 

Después de obtener su doctorado en 1958, trabajó en los laboratorios AT&T Bell, en las investigaciones de la física de estado sólido, necesarias para la fabricación de semiconductores. En 1964, se inicia como profesor de Física en la Universidad de Princeton, pero luego se interesa por la química y la biología y abandona la física. En 1980, pasa al Instituto Tecnológico de California (Caltech) a enseñar estas materias. (Enciclopedia Británica)

Allí se interesa en el funcionamiento del cerebro y realiza su aporte más notable: la red Hopfield, “un tipo de red artificial que puede servir como una memoria direccionable por contenido”, su aporte trascendió la física, la química y la biología, reseña la Wikipedia:

“Su conexión con la mecánica estadística, las redes recurrentes y la psicología cognitiva humana ha llevado a su aplicación en varios campos, entre ellos la física , la psicología , la neurociencia y la teoría y la práctica del aprendizaje automático.” ( red Hopfield)

Interesante, partió de varias disciplinas del saber y creó un modelo que igualmente trascendió en sus aportes a varias disciplinas del saber. ¿Qué le dice esa experiencia a nuestros sistemas educativos?

Las áreas de investigación del profesor  Hopfield son: física, biología molecular, sistemas complejos y neurociencia.

Geoffrey Hinton

Nace en Wimbledon, Londres, el 6 de diciembre de 1947, es ciudadano británico canadiense; es licenciado en psicología experimental, en 1970, de la Universidad de Cambridge, en 1978, obtuvo el título de doctor en Inteligencia Artificial de la Universidad de Edimburgo; su campo de trabajo: aprendizaje automático, psicología, 

Inteligencia artificial, ciencia cognitiva, ciencias de la computación. Es tataranieto del lógico, matemático y filósofo George Boole, el mismo creador del  álgebra de Boole tan fundamental en las ciencias de la computación y en la lógica digital. 

Actualmente, es profesor emérito del departamento de informática de la universidad de Toronto, en Canadá, de la que es parte desde 1987.

Desde entonces, es también miembro del Instituto Canadiense de Investigación Avanzada (CIFAR), participante del programa de investigación de “Inteligencia Artificial, Robótica y Sociedad”. En el 2004 inicia, junto al franco-estadounidense Yan André Lecun, hoy jefe de Inteligencia Artificial de Meta, y el canadiense-francés Yoshua Bengio, crean un nuevo programa de investigación en el CIFAR llamado  “Computación  Neuronal y Percepción Adaptativa”, que ahora se llama “Aprendizaje en máquinas y cerebros”.

En el 2018  Hinton, Lecun y Bengio recibieron el premio ACM AM Turing 2018, considerado el premio Nobel de la computación, por su trabajo fundamental de aprendizaje profundo o deep learning. A partir de ese momento se les conoce como los padrinos de la IA.

En el 2009, Hinton con dos de sus estudiantes de postgrado, George Dahl y Abduraham Muhammad, lograron un modelo que mejoraba el reconocimiento de voz más allá del estado del arte usando redes neuronales profundas; en el 2012 se hizo público en los dispositivos con Android y de repente se igualó con Siri, el asistente de Apple.

En el 2012, Hinton fundó junto con dos de sus estudiantes de postgrado de la Universidad de Toronto, Alex Krizhevsky e Ilya Sutskever, DNNresearch. Este equipo de trabajo se hizo  famoso después de ganar el desafío de reconocimiento visual a gran escala de ImageNet, el 30 de septiembre de 2012, allí mostraron la eficiencia de  AlexNet, una arquitectura de red neuronal convolucional diseñada por Alex Krizhevsky, con la colaboración de Hinton y Sutskever. En marzo del 2013 Google adquirió la empresa y el profesor Goeffry Hinton, desde entonces  trabajó a tiempo compartido en Google por diez años, hasta su renuncia en el 2023, Alex Krizhevsky e Ilya Sutskever si pasaron a formar parte de la plantilla de la empresa. 

Para sorpresa de Hinton la comunidad científica aceptó y adoptó estas nuevas maneras de hacer Inteligencia Artificial. “Los científicos normalmente envejecen quejándose de que estás cosas no tienen sentido” Geoffrey Hinton.

Las motivaciones de la renuncia de Hinton fueron para tener más libertad de expresar sus preocupaciones sin involucrar a la empresa.

Cuáles son las principales preocupaciones de Hopfield y Hinton?

1.- Han diseñado algoritmos que funcionan pero no los comprenden.

Hopfield dice:

«…como físico, me pone muy nervioso algo que no tengo control, algo que no entiendo lo suficientemente bien como para poder entender cuáles son los límites a los que se puede llegar con esa tecnología». (8-10-2024, AFP, France24)

«Esa es la pregunta que la IA está planteando», continuó, añadiendo que a pesar de que los sistemas de IA modernos parecen ser «maravillas absolutas», hay una falta de comprensión sobre cómo funcionan, lo que describió como «muy, muy desconcertante». (Ib.)

«Es por eso que yo mismo, y creo que también Geoffrey Hinton, abogaríamos firmemente por la comprensión como una necesidad esencial del campo, que va a desarrollar algunas habilidades que están más allá de las capacidades que uno puede imaginar en la actualidad». (Ib.) 

2.-Se podrían aumentar las desigualdades

Opiniones de Hinton expresada en una entrevista realizada en su casa de Londres por la Universidad de Toronto (22-6-2023, Universidad de Toronto)

“…habrá una gran mejora en la productividad para quienes trabajan con texto…en nuestra sociedad, el aumento en sí no sería bueno pues podría hacer más rico al rico y más pobre al pobre…pero en una sociedad decente, aumentar la productividad debería ser algo bueno” (ib.)

3.-“Ya son mejores que nosotros”, tienen mente de colmena

“…muy recientemente me dí cuenta de porqué estos modelos digitales tienen una especie de mente de colmena. Cuando un agente aprende algo, todos los otros agentes lo saben, en realidad ya podrían ser mejores que la inteligencia biológica…cambié mi opinión…pueden hacer todo lo que hace el cerebro humano…” (ib.)

“Hace unos meses de repente me dí cuenta que ya son mejores que nosotros, solo son pequeños y cuando crezcan, entonces serán más inteligentes que nosotros. Eso me dió bastante miedo…en lugar de ser 30 años a 50 años, sería en 5 años a 20 años, algo así…” (ib.)

“La superinteligencia podría llegar más pronto si se considera este escenario de mente de colmena…”(ib.)

4.-La necesidad de tener el control de la IA

Continua Hinton: “…los gobiernos deben alentar a las empresas a poner muchos recursos …, para hacer cada vez más experimentos para averiguar cómo mantenerlas bajo control…hacer un trabajo empírico sobre eso…estoy convencido de la necesidad de datos empíricos sobre estás amenazas. No puedes tener a filósofos, políticos y legisladores inventando reglas. Necesitas un trabajo empírico que analice estás cosas y vea cómo van mal y cómo se pueden controlar. Eso solo lo puede hacer la gente que las desarrolla” (ib.)

¿Está no puede ser una  iniciativa de las empresas? “…las personas en las grandes empresas…están muy preocupados por esto y trabajan en ello…pero tiene una obligación con sus accionistas…obtener grandes beneficios, sobre todo a corto plazo…” (ib.)

5.-¿No sé puede apagar?, Maquiavelo elevado a la “n”

“…habrán leído lo que escribió Maquiavelo. Habrán leído todos los ejemplos en la literatura sobre el engaño…Serán mejor que nosotros manipulando”(ib.)

“…serán verdaderos expertos en hacer engaños humanos, porque aprenderán eso de nosotros y serán muchos mejores que nosotros”(ib.) 

Es decir, tendrán sus cómplices humanos, sus ciegos creyentes, sus súbditos que le servirán. 

6.-Terroristas y la Dark Web repotenciados por la IA 

Todas estas preocupaciones de la IA, sin mencionar las que recogió el informe de la Comisión Nacional sobre Inteligencia Artificial (NSCAI) 2018-2012, que habla de los peligros de la IA para la seguridad nacional de los Estados Unidos, presidida por Erick Schmidt, ex CEO de Google y ex directivo de Alphanet.

Para ponerle más picante al guiso, está la preocupación que le ha causado al mismo Erick Schmidt (28-11-2024) la aparición reciente  de dos modelos chinos de código abierto, Qwen 2.5 de Alí Baba Modelos extensos de Lenguaje (LLM, por sus siglas en inglés) y DeepSeek R1 modelo para resolución de problemas. Al ver los comparativos internacionales (Leaderboard) con otros modelos estadounidense están quedando muy bien parados, incluso entre los cinco primeros. Esto le hace pensar a Schmidt que China cuando mucho está rezagado solo unos meses con respecto a EE.UU.; su preocupación ahora es que estos modelos caigan en manos de terceros maliciosos, entre ellos terroristas u operadores de la dark web.

La pregunta es ¿y en nuestros países qué se va a hacer? ¿Cola de león o cabeza de ratón?

La entrada De pioneros  de la IA, convertidos en pájaros de mal agüero se publicó primero en Últimas Noticias.


ultimasnoticias.com.ve

Ver fuente