La AI House en el Foro Económico Mundial 2024 (FME) atrae a los líderes del mundo, que debaten allí sobre riesgos y las oportunidades que abre la IA y cómo adoptar la tecnología de forma eficaz.
Prevalece un sentimiento de optimismo sobre las posibilidades que la inteligencia artificial (IA) promete abrir en campos como la sanidad y la educación. Sin embargo, el entusiasmo suele ir precedido por la frase: "la IA, si se hace con responsabilidad". Y después, siempre se agrega: "pero debemos tener cuidado".
El Foro Económico Mundial (FEM), en su encuesta anual sobre riesgos, sitúa la desinformación impulsada por la IA como el mayor peligro en los próximos dos años. Según la encuesta, el "nexo entre la información falsificada y el malestar social ocupará un lugar central" este año, cuando más de 2.000 millones de personas acudan a las urnas en países como Estados Unidos e India.
El Fondo Monetario Internacional ha advertido de que la revolución tecnológica influirá en casi el 40 por ciento de los puestos de trabajo en todo el mundo, incluidos los de alta cualificación. En las economías desarrolladas, podría incluso llegar al 60 por ciento de los empleos.
Si bien las economías emergentes y en desarrollo podrían enfrentarse a menos trastornos inmediatos derivados de la IA, el FMI advierte de que muchos de estos países podrían tener dificultades para aprovechar los beneficios de la IA debido a la falta de infraestructuras y de mano de obra cualificada, lo que aumenta el riesgo de que, con el tiempo, la IA empeore la desigualdad entre los países.
"En la mayoría de los escenarios, la IA probablemente empeorará la desigualdad general, una tendencia preocupante que los responsables políticos deben abordar de forma proactiva para evitar que la tecnología avive aún más las tensiones sociales", declaró Kristalina Georgieva, directora del FMI, al inicio de la reunión anual del FEM.
Riesgos a medida que avanza la IA
Entre las mayores preocupaciones, están la calidad de los datos que alimentan los diversos modelos de IA y cómo la tecnología ha llevado al aumento de contenidos de alta calidad y a la posiblidad de manipular, como falsificaciones profundas, a un coste relativamente bajo.
Los críticos afirman que las empresas de IA generativa no han sido transparentes en cuanto al origen de los datos que alimentan sus grandes modelos lingüísticos, como ChatGPT, lo que suscita dudas sobre la fiabilidad de los datos subyacentes.
"¿Tomaron los datos de Fortran (un lenguaje de programación informática) o los tomaron de cierta parte de Reddit? Sólo podemos hacer suposiciones", dice a DW James Landay, profesor de informática de la Universidad de Stanford. "Lo que sí sabemos es que proceden principalmente de una perspectiva occidental. Los valores culturales incrustados en estos datos no son apropiados para otras culturas. Es casi una forma de imperialismo", afirma.
Landay, especializado en interacción persona-ordenador, señala las amenazas de la triple D que plantean los modelos de IA: desinformación, deep-fakes (falsificaciones profundas) y discriminación.
Comments