Esta semana, dos de las voces más influyentes de la tecnología ofrecieron visiones contrastantes del desarrollo de la inteligencia artificial, destacando la creciente tensión entre innovación y seguridad. El director ejecutivo Sam Altman reveló el domingo por la noche en una publicación de blog sobre la trayectoria de su empresa que OpenAI ha triplicado su base de usuarios a más de 300. millones de usuarios activos semanales a medida que avanza hacia la inteligencia artificial general (AGI). «Ahora estamos seguros de que sabemos cómo construir AGI como la hemos entendido tradicionalmente», dijo Altman, afirmando que en En 2025, los agentes de IA podrían «unirse a la fuerza laboral» y «cambiar materialmente la producción de las empresas». Altman dice que OpenAI se dirige hacia algo más que agentes de IA y AGI, y afirma que la compañía está comenzando a trabajar en «superinteligencia en el verdadero sentido de la palabra.» No está claro el plazo para la entrega de AGI o superinteligencia. OpenAI no respondió de inmediato a una solicitud de comentarios. Pero horas antes, el domingo, el cocreador de Ethereum, Vitalik Buterin, propuso usar la tecnología blockchain para crear mecanismos globales a prueba de fallos para sistemas avanzados de IA, incluida una capacidad de «pausa suave» que podría restringir temporalmente la actividad industrial. ampliar las operaciones de IA si surgen señales de advertencia.
Seguridad basada en criptomonedas para la seguridad de la IA
Buterin habla aquí de «d/acc» o aceleración descentralizada/defensiva. En el sentido más simple, d/acc es una variación de e/acc, o aceleración efectiva, un movimiento filosófico propugnado por figuras de alto perfil de Silicon Valley como Marc Andreessen de a16z. El d/acc de Buterin también apoya el progreso tecnológico pero prioriza los desarrollos que mejoran seguridad y agencia humana. A diferencia del aceleracionismo efectivo (e/acc), que adopta un enfoque de «crecimiento a cualquier costo», d/acc se centra primero en desarrollar capacidades defensivas». D/acc es una extensión de los valores subyacentes de las criptomonedas (descentralización, resistencia a la censura, apertura economía y sociedad global) a otras áreas de la tecnología», escribió Buterin. Mirando retrospectivamente cómo ha progresado d/acc durante el año pasado, Buterin escribió sobre cómo se podría implementar un enfoque más cauteloso hacia AGI y los sistemas superinteligentes utilizando las criptomonedas existentes. Mecanismos como pruebas de conocimiento cero. Según la propuesta de Buterin, las principales computadoras con IA necesitarían la aprobación semanal de tres grupos internacionales para seguir funcionando. «Las firmas serían independientes del dispositivo (si lo deseamos, incluso podríamos exigir una prueba de conocimiento cero de que se publicaron en una cadena de bloques), por lo que sería todo o nada: no habría una forma práctica de autorizar a un dispositivo a seguir funcionando sin autorizar a todos los demás dispositivos», explicó Buterin. El sistema funcionaría como un interruptor maestro en el que ya sea todo aprobado «Hasta que ocurra un momento tan crítico, simplemente tener la capacidad de hacer una pausa suave causaría poco daño a los desarrolladores», señaló Buterin, describiendo el sistema como una forma de seguro contra escenarios catastróficos. En cualquier caso, el crecimiento explosivo de OpenAI a partir de 2023 (de 100 millones a 300 millones de usuarios semanales en solo dos años) muestra cómo la adopción de la IA está progresando rápidamente. empresa de tecnología, Altman reconoció los desafíos de construir «una empresa completa, casi desde cero, en torno a esta nueva tecnología». Las propuestas reflejan debates más amplios de la industria sobre la gestión del desarrollo de la IA. Sus defensores han argumentado anteriormente que implementar cualquier sistema de control global requeriría una cooperación sin precedentes entre los principales desarrolladores de IA, los gobiernos y el sector criptográfico. «Un año de 'modo de guerra' puede fácilmente valer cien años de trabajo en condiciones de complacencia», Buterin escribió. “Si tenemos que limitar a las personas, parece mejor limitar a todos en pie de igualdad y hacer el trabajo duro de tratar de cooperar para organizar eso en lugar de que un partido busque dominar a todos los demás”. Editado por Sebastian Sinclair
Boletín Generalmente Inteligente
Un viaje semanal de IA narrado por Gen, un modelo de IA generativa.