Llamada de atención sobre la IA

,
Llamada de atención sobre la IA

Siempre hay, y habrá, partidarios y detractores de la Inteligencia Artificial (IA), como en cualquier tema. Lo que sorprende en este caso es que sean los principales líderes desarrolladores de IA los que hagan una llamada de atención sobre ella y estén argumentando a favor de una regulación más estricta por parte de los países desarrollados.

Un grupo de líderes de la industria advirtió que la tecnología de inteligencia artificial (IA) que están desarrollando algún día podría ser una amenaza existencial para la humanidad y debería considerarse un riesgo social al mismo nivel que las pandemias y las guerras nucleares.

Un mensaje claro y conciso:

Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.

Ya son más de 350 los ejecutivos, investigadores e ingenieros que trabajan en IA que han firmado esta declaración pública y abierta, en un intento por concienciar sobre los peligros que podrían surgir en el futuro.

En resumen

El desarrollo y aplicación de los modelos basados en la gestión de los datos que hace la IA se presenta a futuro como el siguiente paso para la mejora de los servicios financieros, que se adapten a las necesidades de los clientes, reforzando la seguridad y la confianza.

Frente a este futuro nos encontramos con los desafíos que se debaten en la actualidad: sesgos, explicación de resultados y responsabilidad del uso los modelos.

Así mismo es importante avanzar en el debate ético que genera el uso de la IA. Cuando los seres humanos llevamos a cabo una acción se nos hace responsable del efecto de esa acción sobre otros seres humanos.  ¿Tienen responsabilidad los sistemas de IA que se aplicarían en campos como la salud, la educación, el transporte o la seguridad?

Se hacen necesarios los marcos regulatorios sobre el uso de la IA.

Un gran poder (IA) conlleva una gran responsabilidad.

Habilidades

, , , ,

Publicado el

octubre 29, 2023