Microsoft alertó que la inteligencia artificial puede diseñar toxinas «indetectables» y expone una falla de bioseguridad
Un equipo de la compañía demostró cómo eludir los sistemas de protección. Lograron rediseñar proteínas tóxicas sin ser detectados. Ya alertaron al gobierno de EE. UU.
Un equipo de investigadores de Microsoft reveló que utilizó inteligencia artificial para descubrir una grave vulnerabilidad en los sistemas de bioseguridad globales, demostrando que es posible diseñar toxinas que evaden los controles de seguridad actuales. El trabajo, publicado en la revista Science, expone lo que se conoce como una amenaza de «día cero», una falla hasta ahora desconocida por los expertos.
El equipo, liderado por el científico jefe de Microsoft, Eric Horvitz, se centró en los sistemas de detección que buscan impedir la compra de secuencias de ADN que podrían usarse para crear patógenos o toxinas letales. Según detallaron, usaron algoritmos de IA generativa, similares a los que se emplean para crear nuevos medicamentos, para rediseñar proteínas tóxicas. El objetivo era alterar su estructura lo suficiente para pasar desapercibidas por el software de control, pero manteniendo intacta su función dañina.
Desde la compañía informaron que este ejercicio fue parte de una prueba interna iniciada en 2023 para determinar el potencial de «uso dual» de la IA en este campo. El experimento fue enteramente digital y en ningún momento se produjeron proteínas tóxicas reales para evitar la percepción de que se estaban desarrollando bioarmas.
Antes de hacer públicos los hallazgos, Microsoft comunicó que alertó al gobierno de Estados Unidos y a los fabricantes del software de control, quienes ya implementaron parches en sus sistemas. Sin embargo, admitieron que la solución no es completa. «El parche es incompleto y el estado de la técnica está cambiando. Estamos en una especie de carrera armamentista», advirtió Adam Clore, director de Integrated DNA Technologies y coautor del informe.
Para evitar el mal uso de esta investigación, los responsables no revelaron el código completo ni qué proteínas tóxicas específicas manipularon. No obstante, el descubrimiento generó un debate sobre dónde deben enfocarse los esfuerzos de seguridad.
Dean Ball, miembro de la Foundation for American Innovation, un centro de estudios, afirmó que el hallazgo «demuestra la necesidad clara y urgente de mejorar los procedimientos de detección de síntesis de ácidos nucleicos». Por otro lado, expertos como Michael Cohen, investigador de seguridad de IA en la Universidad de California, Berkeley, se mostraron escépticos y consideraron que la seguridad debería integrarse en los propios sistemas de inteligencia artificial.
Clore, sin embargo, sostuvo que monitorear la síntesis de genes sigue siendo un enfoque práctico, ya que la fabricación de ADN en Estados Unidos está concentrada en pocas empresas que colaboran con el gobierno. En contraste, señaló que la tecnología para entrenar modelos de IA está mucho más extendida. «No se puede volver a meter a ese genio en la botella», concluyó.
Con información de MIT Technology Review.
Un equipo de investigadores de Microsoft reveló que utilizó inteligencia artificial para descubrir una grave vulnerabilidad en los sistemas de bioseguridad globales, demostrando que es posible diseñar toxinas que evaden los controles de seguridad actuales. El trabajo, publicado en la revista Science, expone lo que se conoce como una amenaza de "día cero", una falla hasta ahora desconocida por los expertos.
Registrate gratis
Disfrutá de nuestros contenidos y entretenimiento
Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora
Comentarios