Discriminación, pérdida de empleos y desinformación son algunos de los temores que conlleva la inteligencia artificial - 1 de Abril de 2023 - El Mercurio - Noticias - VLEX 927411909

Discriminación, pérdida de empleos y desinformación son algunos de los temores que conlleva la inteligencia artificial

Una carta firmada esta semana por cerca de 1.000 expertos tecnológicos -entre ellos Elon Musk y el fundador de Apple, Steve Wozniak- pide detener durante seis meses la investigación de sistemas de inteligencia artificial (IA) avanzados tales como GPT4.Este modelo de IA puede crear poesías, escribir ensayos sobre temas complejos, elaborar dietas con su receta respetando un límite de calorías e ingredientes prohibidos; incluso permite programar aplicaciones sin saber código computacional. A esto se suman otras herramientas que se han dado a conocer en el último tiempo, como Dall-e, que genera imágenes artificiales de muy buena calidad a partir de instrucciones dadas por los usuarios.La carta, publicada en el sitio futureoflife.org, dice que "la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes", y añade que "en los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable".Se pregunta: "¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? (...) ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos".La carta ha generado polémica. Andrew NG, respetado investigador en IA y cofundador de Coursera, dijo que "una moratoria de 6 meses no es una propuesta práctica. Para avanzar en la seguridad de la IA, las regulaciones sobre transparencia y auditoría serían más prácticas y marcarían una mayor diferencia", escribió en Twitter.En tanto, las investigadoras Timnit Gebru y Emily Bender, especializadas en ética de la inteligencia artificial y cuyo paper fue citado en la carta, están descontentas. "Básicamente dicen lo contrario de lo que decimos y citamos en nuestro artículo", explica Gebru. Para ellas, el peligro de la IA va por el lado de "la concentración de poder, la reproducción de sistemas de opresión y el daño al ecosistema informativo".Felipe Bravo, académico de la U. de Chile, investigador del Instituto Milenio Fundamentos de los Datos (IMFD) y del Centro Nacional de Inteligencia Artificial (Cenia), cree que la IA está realizando...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR