Más de 1000 expertos expertos entre los que se encuentra Elon Musk o Steve Wozniak (el co-fundador de Apple) piden a través de una carta parar de forma inmediata el y durante al menos 6 meses desarrollo de los sistemas de inteligencia artificial que sean más potentes que Chat GPT-4.
¿Los motivos? Te los explicamos a continuación:
Falta de planificación
Tal y como indica la carta la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados.
Además, indican que por desgracia, este nivel de planificación y gestión no se está produciendo y los laboratorios sólo están compitiendo en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable.
Pérdida de puestos de trabajo
Los sistemas contemporáneos de IA están llegando a competir con los humanos en tareas generales. El documento plantea la duda de si realmente debemos automatizar todos los trabajos, incluídos los satisfactorios.
Como reflexión añaden de si realmente debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia y por consiguiente terminar siendo obsolescentes y reemplazables.
La investigación añade que hace falta pensar bien el uso de las IA para que éstas sean beneficiosas para la sociedad y se pueda gestionar sus riesgos.
Dudas sobre su seguridad
En una sociedad donde cada vez existen más fake news y canales de propaganda falsa, las IA juegan un papel fundamental ya que cada vez es más fácil hacer pasar una imagen o video falso como uno verdadero.
Los expertos indican que esta pausa debería ser aprovechada para desarrollar y aplicar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independiente
Recomiendan que los gobiernos y las entidades regulardoras deberían supervisar y seguir el desarrollo de las IA. Además, indican que si esta pausa no se puede regular, se debería intervenir e imponer una suspensión para asegurar que el desarrollo de las IA sea público y verificable.
Mantente al día
Si te ha gustado esta pequeña noticia no olvides revisar nuestra sección de actualidad o seguirnos en nuestras redes sociales.
¡Te esperamos en Trucker360!