Publi


Apenas unos días después de que OpenAI anunciara la formación de su nuevo Comité de Seguridad, los ex miembros de la junta directiva Helen Toner y Tasha McCauley acusaron públicamente al director ejecutivo Sam Altman de priorizar las ganancias sobre el desarrollo responsable de la IA, ocultar desarrollos clave a la junta directiva y fomentar un ambiente tóxico en la empresa. Pero los actuales miembros de la junta directiva de OpenAI, Bret Taylor y Larry Summers, respondieron hoy con una sólida defensa de Altman, contrarrestando las acusaciones y diciendo que Toner y McCauley están tratando de reabrir un caso cerrado. El argumento se desarrolló en un par de artículos de opinión publicados en The Economist. Los ex miembros de la junta despidieron primero, argumentando que la junta de OpenAI no pudo controlar a su director ejecutivo. “En noviembre pasado, en un esfuerzo por salvar esta estructura autorreguladora «En el caso específico de OpenAI, dado el deber de la junta de proporcionar supervisión independiente y proteger la misión de interés público de la empresa, , respaldamos la acción de la junta». En su respuesta publicada, Bret Taylor y Larry Summers, quienes se unieron a OpenAI después de que Toner y McCauley dejaron la compañía, defendieron a Altman, desestimando los reclamos y afirmando su compromiso con la seguridad y la gobernanza. «No «Aceptamos las afirmaciones hechas por la Sra. Toner y la Sra. McCauley con respecto a los eventos en OpenAI», escribieron. «Lamentamos que la Sra. Toner continúe revisando temas que fueron examinados minuciosamente por la revisión dirigida por WilmerHale en lugar de seguir adelante». y McCauley no citó al nuevo Comité de Seguridad de la compañía, su carta se hizo eco de las preocupaciones de que OpenAI no podría controlarse de manera creíble a sí misma y a su CEO. «Basándonos en nuestra experiencia, creemos que el autogobierno no puede resistir de manera confiable la presión de los incentivos a las ganancias». ellos escribieron. «También creemos que los acontecimientos desde que regresó a la empresa, incluido su reincorporación a la junta directiva y la salida de talentos senior centrados en la seguridad, son un mal augurio para el experimento OpenAI en autogobierno». patrones de comportamiento” de Altman dejaron a la junta directiva de la empresa incapaz de supervisar adecuadamente “decisiones clave y protocolos de seguridad internos”. Los colegas actuales de Altman, sin embargo, señalaron las conclusiones de una revisión independiente del conflicto encargada por la compañía. «Los hallazgos de la revisión rechazaron la idea de que cualquier tipo de preocupación por la seguridad de la IA requiriera el reemplazo del Sr. Altman», escribieron, «de hecho, WilmerHale descubrió que la decisión de la junta anterior no surgió de preocupaciones sobre la seguridad del producto, el ritmo de desarrollo, las finanzas de OpenAI o sus declaraciones a inversores, clientes o socios comerciales”. Quizás lo más preocupante es que Toner y McCauley también acusaron a Altman. de fomentar una cultura empresarial venenosa. “Varios altos líderes habían compartido en privado graves preocupaciones con la junta directiva, diciendo que creían que el Sr. Altman cultivaba 'una cultura tóxica de mentiras' y participaba en 'comportamientos [that] puede caracterizarse como abuso psicológico”. Pero Taylor y Summers refutaron sus afirmaciones, diciendo que Altman es muy estimado por sus empleados. “En seis meses de contacto casi diario con la empresa, hemos encontrado que el Sr. Altman es muy comunicativo en todos los aspectos. temas relevantes y consistentemente colegiado con su equipo de gestión”, dijeron. Taylor y Summers también dijeron que Altman estaba comprometido a trabajar con el gobierno para mitigar los riesgos del desarrollo de la IA. El intercambio público se produce en medio de una era turbulenta para OpenAI que comenzó con su breve derrocamiento. Este mismo mes, su exjefe de alineación se unió a la empresa rival Antropic después de formular acusaciones similares contra Altman. Tuvo que recurrir a un modelo de voz sorprendentemente similar al de la actriz Scarlett Johansson después de no conseguir su consentimiento. La empresa desmanteló su equipo de superalineación y se reveló que los acuerdos de confidencialidad abusivos impedían que los ex empleados criticaran a la empresa. OpenAI también ha conseguido acuerdos con el Departamento de Defensa para utilizar la tecnología GPT para aplicaciones militares. Mientras tanto, el importante inversor de OpenAI, Microsoft, también habría hecho acuerdos similares con ChatGPT. Las afirmaciones compartidas por Toner y McCauley parecen consistentes con las declaraciones compartidas por los ex investigadores de OpenAI que dejaron la empresa, Jan Leike, diciendo que «en los últimos años, la cultura y los procesos de seguridad [at OpenAI] han pasado a un segundo plano frente a productos brillantes” y que su equipo de alineación estaba “navegando contra el viento”. Taylor y Summers abordaron parcialmente estas preocupaciones en su columna citando el nuevo comité de seguridad y su responsabilidad “de hacer recomendaciones a toda la junta sobre asuntos relacionadas con decisiones críticas de seguridad y protección para todos los proyectos OpenAI». Toner ha intensificado recientemente sus afirmaciones sobre la falta de transparencia de Altman. «Para dar una idea del tipo de cosas de las que estoy hablando, cuando ChatGPT salió en noviembre de 2022, la junta «No fue informado con anticipación», reveló en el podcast The TED AI Show a principios de esta semana. «Nos enteramos de ChatGPT en Twitter». También dijo que la junta de OpenAI no sabía que Altman era propietario del OpenAI Startup Fund, a pesar de sus afirmaciones de un. falta de participación financiera en OpenAI. El fondo invirtió millones recaudados de socios como Microsoft en otros negocios, sin el conocimiento de la junta. La propiedad del fondo por parte de Altman terminó en abril. OpenAI no respondió a una solicitud de comentarios de Decrypt. Editado por Ryan Ozawa.

Boletín Generalmente Inteligente

Un viaje semanal de IA narrado por Gen, un modelo de IA generativa.

Publicidad

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.