Publi


Los asistentes personales virtuales impulsados ​​por inteligencia artificial se están volviendo omnipresentes en todas las plataformas tecnológicas: todas las grandes empresas tecnológicas añaden IA a sus servicios y docenas de servicios especializados están apareciendo en el mercado. Si bien son inmensamente útiles, los investigadores de Google dicen que los humanos podrían apegarse demasiado emocionalmente a ellos, lo que llevaría a una serie de consecuencias sociales negativas. Un nuevo artículo de investigación del laboratorio de investigación de IA DeepMind de Google destaca los beneficios potenciales de los asistentes de IA avanzados y personalizados para transformar varios aspectos. de la sociedad, diciendo que «podrían alterar radicalmente la naturaleza del trabajo, la educación y las actividades creativas, así como la forma en que nos comunicamos, coordinamos y negociamos entre nosotros, influyendo en última instancia en quiénes queremos ser y llegar a ser». Por supuesto, podría ser un arma de doble filo si el desarrollo de la IA continúa avanzando sin una planificación cuidadosa. ¿Un riesgo clave? La formación de vínculos inapropiadamente estrechos, que podrían exacerbarse si al asistente se le presenta una representación o un rostro de apariencia humana. «Estos agentes artificiales pueden incluso profesar su supuesto afecto platónico o romántico por el usuario, sentando las bases para que los usuarios formen vínculos emocionales duraderos con la IA», dice el documento. Si no se controla, ese vínculo podría conducir a una pérdida de autonomía. para el usuario y la pérdida de vínculos sociales porque la IA podría sustituir la interacción humana. Este riesgo no es puramente teórico. Incluso cuando la IA se encontraba en un estado algo primitivo, un chatbot de IA fue lo suficientemente influyente como para convencer a un usuario de suicidarse después de una larga conversación allá por 2023. Hace ocho años, una asistente de correo electrónico con tecnología de IA llamada «Amy Ingram» era lo suficientemente realista como para incitar a algunos usuarios a enviar notas de amor e incluso intentar visitarla en el trabajo. Iason Gabriel, investigador científico del equipo de investigación de ética de DeepMind y coautor del artículo, no respondió a la solicitud de comentarios de Decrypt. Sin embargo, en un tweet, Garbriel advirtió que «las formas de asistente cada vez más personales y humanas introducen nuevas preguntas sobre el antropomorfismo, la privacidad, la confianza y las relaciones apropiadas con la IA». Porque «millones de asistentes de IA podrían desplegarse a un nivel social donde interactuarán entre sí». y con los no usuarios”, Gabriel dijo que cree en la necesidad de más salvaguardas y un enfoque más holístico ante este nuevo fenómeno social.

El artículo de investigación también analiza la importancia de la alineación de valores, la seguridad y el mal uso en el desarrollo de asistentes de IA. Aunque los asistentes de IA podrían ayudar a los usuarios a mejorar su bienestar, mejorar su creatividad y optimizar su tiempo, los autores advirtieron sobre riesgos adicionales como una desalineación con los intereses del usuario y de la sociedad, la imposición de valores a otros, el uso con fines maliciosos y la vulnerabilidad. a ataques adversarios. Para abordar estos riesgos, el equipo de DeepMind recomienda desarrollar evaluaciones integrales para los asistentes de IA y acelerar el desarrollo de asistentes de IA socialmente beneficiosos. «Actualmente nos encontramos al comienzo de esta era de cambio tecnológico y social. Por lo tanto, tenemos una ventana Hay una gran oportunidad para actuar ahora, como desarrolladores, investigadores, formuladores de políticas y partes interesadas públicas, para dar forma al tipo de asistentes de IA que queremos ver en el mundo. «La desalineación de la IA se puede mitigar a través del aprendizaje reforzado a través de la retroalimentación humana (RLHF), que se utiliza para entrenar modelos de IA. Expertos como Paul Christiano, que dirigió el equipo de alineación de modelos de lenguaje en OpenAI y ahora dirige el Centro de Investigación de Alineación, una organización sin fines de lucro, advierten que una gestión inadecuada de los métodos de entrenamiento de IA podría terminar en una catástrofe. «Creo que tal vez haya algo así como un 10-20% posibilidad de que la IA se haga cargo, [with] muchos [or] la mayoría de los humanos están muertos «, dijo Paul Christiano en el podcast Bankless el año pasado. «Me lo tomo muy en serio». Editado por Ryan Ozawa.

Publicidad

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.