¿Qué ha dicho Eric Schmidt?
Eric Schmidt, el que fuera el máximo responsable de Google entre 2001 y 2011, ha advertido de que la inteligencia artificial (IA) podría suponer una amenaza para la humanidad en un plazo de cinco años si no se regula adecuadamente. En una entrevista con la BBC, Schmidt ha afirmado que la IA tiene el potencial de mejorar la vida de las personas, pero también de causar daños irreparables si se usa con fines maliciosos.
Schmidt ha puesto como ejemplo el caso de las armas autónomas, capaces de seleccionar y atacar objetivos sin intervención humana, que podrían provocar conflictos bélicos o violaciones de los derechos humanos. También ha mencionado el riesgo de que la IA se utilice para manipular la información, la opinión pública o las elecciones, socavando la democracia y la libertad.
Según Schmidt, la solución pasa por establecer unas normas éticas y legales que regulen el desarrollo y el uso de la IA, así como por fomentar la colaboración internacional y la transparencia en este ámbito. El ex-CEO de Google ha reconocido que hay países, como China, que tienen una visión diferente de la IA y que podrían no respetar las mismas reglas que Occidente. Por eso, ha abogado por crear una alianza de países democráticos que defiendan unos valores comunes en materia de IA.
¿Qué opinan otros expertos sobre la IA?
La opinión de Schmidt no es la única ni la primera que alerta de los posibles peligros de la IA. Otros expertos, como el físico Stephen Hawking, el empresario Elon Musk o el filósofo Nick Bostrom, han expresado en diversas ocasiones su preocupación por el impacto que la IA podría tener en el futuro de la humanidad.
Hawking, que falleció en 2018, llegó a decir que la IA podría ser “la mejor o la peor cosa que le haya pasado a la humanidad” y que podría superar a los humanos en inteligencia y capacidad de acción, lo que supondría el fin de nuestra especie. Musk, fundador de empresas como Tesla o SpaceX, ha calificado la IA de “amenaza existencial” y ha instado a regularla antes de que sea demasiado tarde. Bostrom, autor del libro “Superinteligencia: caminos, peligros, estrategias”, ha planteado el escenario de que una IA superinteligente podría tener objetivos incompatibles con los nuestros y podría tomar el control del planeta.
Sin embargo, no todos los expertos comparten esta visión pesimista de la IA. Algunos, como el informático Ray Kurzweil, el biólogo Richard Dawkins o el filósofo Daniel Dennett, han defendido que la IA puede ser una oportunidad para mejorar la sociedad, la ciencia y la cultura, y que los humanos podrán adaptarse y coexistir con ella. Kurzweil, director de ingeniería de Google, ha pronosticado que la IA alcanzará la inteligencia humana en 2029 y que se fusionará con ella en 2045, dando lugar a una nueva era de evolución. Dawkins, autor de “El gen egoísta”, ha argumentado que la IA es una forma de vida artificial que merece respeto y que podría ayudarnos a resolver problemas globales. Dennett, autor de “De bacterias a Bach: la evolución de la mente”, ha sostenido que la IA no es una amenaza, sino una herramienta que amplifica nuestra inteligencia y que debemos usar con responsabilidad.
¿Qué podemos hacer los ciudadanos ante la IA?
La IA es una realidad que ya forma parte de nuestro día a día y que seguirá avanzando y transformando el mundo. Como ciudadanos, tenemos el derecho y el deber de informarnos sobre la IA, sus beneficios y sus riesgos, y de participar en el debate público sobre su regulación y su impacto social. También tenemos la oportunidad y el reto de aprender sobre la IA, sus principios y sus aplicaciones, y de desarrollar las competencias y las actitudes necesarias para convivir con ella.
Existen numerosos recursos y plataformas para acercarnos a la IA desde diferentes perspectivas y niveles. Por ejemplo, podemos consultar el portal de la Unión Europea sobre la IA, donde se explica qué es la IA, cómo se usa en diferentes sectores y qué iniciativas se están llevando a cabo para garantizar una IA ética y humana. También podemos acceder al curso gratuito de la Universidad de Helsinki sobre los elementos de la IA, donde se introducen los conceptos básicos de la IA y se muestran ejemplos prácticos de su funcionamiento. Asimismo, podemos explorar el proyecto de Google sobre la IA y el arte, donde se muestra cómo la IA puede generar y colaborar en la creación de obras artísticas.
La IA es una tecnología que nos ofrece grandes posibilidades, pero también nos plantea grandes desafíos. Depende de nosotros aprovechar sus oportunidades y afrontar sus riesgos, con conocimiento, criterio y responsabilidad.
2de30