La inteligencia artificial se está abriendo camino en todos los aspectos de la vida, incluido el sistema legal estadounidense. Pero a medida que la tecnología se vuelve más omnipresente, el problema de las mentiras o tonterías generadas por la IA (también conocidas como «alucinaciones») persiste. Estas alucinaciones de la IA están en el centro de las afirmaciones del ex miembro de Fugees, Prakazrel “Pras” Michel, quien acusó a un modelo de IA. creado por EyeLevel para torpedear su caso de fraude multimillonario, una afirmación que el cofundador y director de operaciones de EyeLevel, Neil Katz, considera falsa. En abril, Michel fue declarado culpable de 10 cargos en su juicio por conspiración, incluida la manipulación de testigos, la falsificación de documentos y la entrega de documentos. como agente extranjero no registrado. Michel enfrenta hasta 20 años de prisión después de su condena como agente de China, ya que los fiscales dijeron que canalizó su intento de influir en los políticos estadounidenses. “Los abogados de Pras Michel nos trajeron para hacer algo único, algo que no se había hecho «antes», dijo Katz a Decrypt en una entrevista. Según un informe de Associated Press, durante los argumentos finales del abogado de Michel en ese momento, el abogado defensor David Kenner citó erróneamente una letra de la canción «I’ll Be Missing You» de Sean » Diddy” Combs, atribuyendo incorrectamente la canción a los Fugees. Como explicó Katz, a EyeLevel se le encomendó la tarea de construir una IA entrenada en transcripciones judiciales que permitiera a los abogados hacer preguntas complejas en lenguaje natural sobre lo ocurrido durante el juicio. Dijo que no extrajo otra información de Internet, por ejemplo. Los procedimientos judiciales generan notoriamente toneladas de papeleo. El juicio penal del fundador de FTX, Sam Bankman-Fried, que aún está en curso, ya ha generado cientos de documentos. Por otra parte, la quiebra del fracasado intercambio de criptomonedas tiene más de 3.300 documentos, algunos de ellos de docenas de páginas. «Esto es un cambio absoluto en el juego para litigios complejos», escribió Kenner en una publicación de blog de EyeLevel. «El sistema convirtió horas o días de trabajo legal en segundos. Esta es una mirada al futuro de cómo se conducirán los casos». El lunes, el nuevo abogado defensor de Michel, Peter Zeidenberg, presentó una moción, publicada en línea por Reuters, para que se nuevo juicio en el Tribunal de Distrito de EE. UU. para el Distrito de Columbia. “Kenner utilizó un programa experimental de inteligencia artificial para escribir su argumento final, que presentó argumentos frívolos, combinó los esquemas y no destacó las debilidades clave en el caso del gobierno”, escribió Zeidenberg. Añadió que Michael busca un nuevo juicio «porque numerosos errores, muchos de ellos precipitados por su ineficaz abogado litigante, socavan la confianza en el veredicto». Katz refutó las acusaciones. «No ocurrió como dicen; este equipo no tiene conocimiento de inteligencia artificial ni de nuestro producto en particular», dijo Katz a Decrypt. «Su afirmación está plagada de información errónea. Ojalá hubieran utilizado nuestro software de inteligencia artificial; podrían haber podido escribir la verdad». Los abogados de Michel aún no han respondido a la solicitud de comentarios de Decrypt. Katz también refutó las afirmaciones de que Kenner tiene un interés financiero en EyeLevel, diciendo que la compañía fue contratada para ayudar al equipo legal de Michel. «La acusación en su presentación de que David Kenner y sus asociados tienen algún tipo de interés financiero secreto en «Nuestras empresas es categóricamente falsa», dijo Katz a Decrypt. «Kenner escribió una reseña muy positiva sobre el rendimiento de nuestro software porque sintió que ese era el caso. No le pagaron por eso; no le dieron acciones». 2019, EyeLevel, con sede en Berkley, desarrolla modelos de IA generativa para consumidores (EyeLevel for CX) y profesionales del derecho (EyeLevel for Law). Como explicó Katz, EyeLevel fue uno de los primeros desarrolladores en trabajar con el creador de ChatGPT, OpenAI, y dijo que la compañía tiene como objetivo proporcionar «IA veraz», o herramientas sólidas y libres de alucinaciones para personas y profesionales legales que tal vez no tengan acceso a fondos para pagar por un equipo grande. Por lo general, los modelos de IA generativa se entrenan en grandes conjuntos de datos recopilados de diversas fuentes, incluido Internet. Lo que hace diferente a EyeLevel, afirmó Katz, es que este modelo de IA se entrena únicamente con documentos judiciales. [AI] «Se entrenó exclusivamente en las transcripciones, exclusivamente en los hechos presentados en el tribunal, por ambas partes y también en lo dicho por el juez», dijo Katz. «Y por eso, cuando haces preguntas a esta IA, solo proporciona respuestas objetivas y libres de alucinaciones basadas en lo que ha ocurrido». A pesar de cómo se entrena un modelo de IA, los expertos advierten sobre el hábito del programa de mentir o alucinar. En abril, ChatGPT acusó falsamente al abogado defensor penal estadounidense Jonathan Turley de cometer agresión sexual. El chatbot llegó incluso a proporcionar un enlace falso a un artículo del Washington Post para probar su afirmación. OpenAI está invirtiendo mucho en combatir las alucinaciones de IA, e incluso ha contratado equipos rojos de terceros para probar su conjunto de herramientas de IA. “Cuando los usuarios firman Antes de utilizar la herramienta, nos esforzamos por ser lo más transparentes posible para que ChatGPT no siempre sea preciso”, dice OpenAI en su sitio web. “Sin embargo, reconocemos que queda mucho más trabajo por hacer para reducir aún más la probabilidad de alucinaciones y educar al público sobre las limitaciones actuales de estas herramientas de inteligencia artificial”. Editado por Stacy Elliott y Andrew Hayward