Los sorprendentes avances de la inteligencia artificial (IA) y el auge que ha tenido durante el 2023 ha generado gran incertidumbre para muchos sectores que han visto que esta tecnología podría representar un peligro para millones de empleos pero también para la seguridad de la humanidad.
Un grupo de empresarios del sector tecnológico, académicos y políticos, entre ellos el director de Tesla, Elon Musk, y el cofundador de Apple, Steve Wozniak, firmaron una carta en tono apocalíptico en la que pidieron suspender durante seis meses los experimentos con inteligencia artificial (IA) debido a los posibles riesgos que esto podría generar.
“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”, reseña la carta publicada por el organismo Future of Life Institute.
Miles de expertos del mundo tecnológico advirtieron que hay unos potenciales riesgos si el uso de la IA no es acompañado por una gestión y planificación adecuada.
“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes. Los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”, reseña la misiva.
Ver más: Ingeniero de Google asegura que programa de inteligencia artificial ha demostrado tener sentimientos
La preocupación es tan grande que se atreven a asegurar que muchos de los desarrolladores de estas inteligencias artificiales todavía no han logrado entender, predecir o controlar de forma fiable estas tecnologías.
En ese sentido, ponen de manifiesto los miedos y peligros que han surgido en los últimos meses en medio del lanzamiento de herramientas con una gran capacidad, como ChatGPT; la cual ha demostrado que puede sostener conversaciones y hasta expresar sentimientos como cualquier persona.
“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?. Tales decisiones no deben delegarse en líderes tecnológicos no electos”, adviertieron.
Un sistema legal
En medio de este escenario, estos expertos y directores de grandes compañías han pedido que se trabaje con los legisladores para establecer un sistema legal sólido en torno al uso de la inteligencia artificial.
Asimismo, resaltan que los sistemas potentes de IA únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables para la humanidad.
“Hacemos un llamamiento a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, indicaron; al pedir la intervención de los Gobiernos para imponer esta moratoria en caso de que las compañías implicadas se nieguen a la suspensión temporal de los experimentos.
Precisamente, en los últimos meses el nombre de ChatGPT ha sido tendencia pero estas siglas (GPT) hacen referencia a un tipo de modelo de aprendizaje artificial que se puede utilizar para generar un lenguage similar al humano.
La compañía OpenAI ha lanzadado la versión más avanzada GPT-4, la cual ha demostrado tener una capacidad superior respecto a las anteriores versiones.
De esta forma, el laboratorio OpenAI define el GPT-4 como su “último hito en el esfuerzo para ampliar el aprendizaje profundo” y así lo ha logrado comprobar ya que esta inteligencia artificial tiene la capacidad para procesar textos e imágenes.
Varios expertos han quedado asombrados por las grandes habilidades que tiene esta herramienta hasta el punto de que genera preocupación por la forma como puede tener conversaciones como cualquier persona y hablar sobre los sentimientos.
Sin embargo, OpenAI asegura que GPT-4 sigue siendo menos capaz que las personas en muchas situaciones reales aunque “muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales”.
En medio de este escenario en el que el mundo ha llegado al punto de saturarse con el lanzamiento y experimentos de tantas herramientas de inteligencia artificial, la comunidad científica ha pedido que todas estas compañías hagan una pausa y establezcan unos protocolos de seguridad de forma conjunta.
“En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”, afirmaron en la carta. .
Finalmente, los académicos y empresarios piden que la investigación y los experimentos con la inteligencia artificial se reenfoque en hacer que “los sistemas potentes y de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”.
Infórmate minuto a minuto sobre esta y otras noticias del mundo en nuestro Facebook.