Lo que dice el “padrino” de esta tecnología
La inteligencia artificial (IA) es una de las áreas más innovadoras y prometedoras de la ciencia y la tecnología, pero también una de las más controvertidas y peligrosas. ¿Qué tan lejos podemos llegar con el desarrollo de sistemas capaces de aprender, razonar y crear como los humanos? ¿Qué riesgos implica para nuestra sociedad, nuestra economía y nuestra seguridad? ¿Qué podemos hacer para evitar que la IA se vuelva en nuestra contra?
Estas son algunas de las preguntas que se plantea Geoffrey Hinton, considerado el “padrino de la inteligencia artificial” por su pionera investigación en redes neuronales y aprendizaje profundo. En una entrevista con la BBC, Hinton reveló sus preocupaciones sobre el futuro de la IA y las razones por las que renunció a su trabajo en Google, una de las empresas líderes en este campo.
¿Qué es la inteligencia artificial?
La inteligencia artificial es la disciplina que se ocupa de crear sistemas informáticos que puedan realizar tareas que normalmente requieren inteligencia humana, como reconocer imágenes, entender el lenguaje natural, jugar al ajedrez o componer música.
Existen diferentes tipos y niveles de inteligencia artificial, desde la más básica y específica hasta la más avanzada y general. Una de las ramas más importantes es el aprendizaje automático, que consiste en diseñar algoritmos que puedan aprender de los datos sin necesidad de ser programados explícitamente.
Dentro del aprendizaje automático, una de las técnicas más poderosas es el aprendizaje profundo, que se basa en el uso de redes neuronales artificiales. Estas son sistemas inspirados en el funcionamiento del cerebro humano, compuestos por capas de unidades de procesamiento llamadas neuronas, que se conectan entre sí y se ajustan según la información que reciben.
El aprendizaje profundo ha permitido avances espectaculares en campos como la visión por computadora, el procesamiento del lenguaje natural, la generación de texto y voz, la robótica y la medicina. Algunos ejemplos son los asistentes virtuales como Siri o Alexa, los sistemas de traducción automática como Google Translate, los coches autónomos o los chatbots como ChatGPT.
¿Quién es Geoffrey Hinton?
Geoffrey Hinton es un científico británico-canadiense que ha dedicado su vida al estudio y desarrollo de la inteligencia artificial. Nacido en 1947 en Londres, se graduó en psicología experimental en Cambridge y obtuvo su doctorado en inteligencia artificial en Edimburgo.
Desde los años 80, Hinton ha sido uno de los principales impulsores de las redes neuronales y el aprendizaje profundo, a pesar del escepticismo y la falta de apoyo que sufrió durante décadas. Sus contribuciones teóricas y prácticas han sido fundamentales para el progreso de esta área y le han valido numerosos reconocimientos, como el Premio Turing, considerado el Nobel de la informática.
Hinton ha trabajado en varias universidades e instituciones, como Carnegie Mellon, MIT o el Instituto Canadiense de Investigación Avanzada (CIFAR). En 2013, fue contratado por Google para liderar su equipo de investigación en inteligencia artificial. Sin embargo, en abril de 2021 anunció su renuncia a la empresa para dedicarse a otros proyectos.
¿Por qué renunció a Google?
En su entrevista con la BBC, Hinton explicó que tenía varias razones para dejar Google. Una era que tenía 75 años y era hora de retirarse. Otra era que quería decir algunas cosas buenas sobre Google y eran más creíbles si no trabajaba para ellos. Y la última era que quería tener la libertad de hablar sobre los peligros de la IA sin preocuparse por el impacto que pudiera tener en Google.
Hinton dijo que Google había actuado de manera muy responsable con respecto a la IA, pero reconoció que había un problema con la competencia entre las empresas tecnológicas por desarrollar productos basados en esta tecnología. Según él, esto genera una presión para crear sistemas cada vez más potentes y complejos, sin tener en cuenta las posibles consecuencias negativas para la humanidad.
¿Qué peligros ve en la inteligencia artificial?
Hinton expresó su preocupación por tres tipos de peligros que plantea la inteligencia artificial: el de la desinformación, el de la automatización y el de la militarización.
El primero se refiere a la capacidad de la IA para generar contenido digital falso o manipulado, como imágenes, videos, audios o textos, que pueden ser usados para engañar, difamar o influir en la opinión pública. Hinton puso como ejemplo los deepfakes, que son videos que muestran a personas reales diciendo o haciendo cosas que nunca dijeron o hicieron. Según él, estos productos son cada vez más difíciles de detectar y podrían socavar la confianza en las fuentes de información.
El segundo se refiere al impacto de la IA en el mercado laboral, al reemplazar a los trabajadores humanos en una gran variedad de tareas y profesiones. Hinton reconoció que este fenómeno podría tener beneficios sociales, como reducir la carga de trabajo o mejorar la calidad de los servicios, pero también advirtió que podría generar desempleo, desigualdad y malestar social. Según él, se necesitan políticas públicas que garanticen una distribución justa de los beneficios de la IA y una protección adecuada de los derechos de los trabajadores.
El tercero se refiere al uso de la IA con fines bélicos, especialmente en el desarrollo de armas autónomas, capaces de seleccionar y atacar objetivos sin intervención humana. Hinton alertó sobre el riesgo de que estas armas caigan en manos de “malos actores” o se salgan de control, provocando conflictos y masacres. Según él, se debería prohibir el desarrollo y la proliferación de estas armas, tal como se ha hecho con las armas químicas o biológicas.
¿Qué podemos hacer para evitar estos peligros?
Hinton propuso algunas medidas para prevenir o mitigar los peligros de la inteligencia artificial. Una es establecer normas éticas y legales que regulen el desarrollo y el uso de esta tecnología, tanto a nivel nacional como internacional. Otra es fomentar la educación y la concienciación sobre los beneficios y los riesgos de la IA, tanto entre los creadores como entre los usuarios. Y otra es promover la investigación y la innovación en áreas que puedan mejorar el bienestar humano y el medio ambiente, como la salud, la educación o la energía.
Hinton también se mostró optimista sobre el potencial de la inteligencia artificial para resolver algunos de los grandes problemas que enfrenta la humanidad, como el cambio climático, las enfermedades o la pobreza. Según él, si se usa con responsabilidad y sabiduría, la IA puede ser una herramienta poderosa para el progreso y el desarrollo.