Inteligencia artificial: Google, Open AI, Microsoft y Anthropic regularán el desarrollo 

Las empresas líderes de tecnología lanzaron el Foro de Modelos de Frontera (Frontier Model Forum). Fijaron las bases para que el desarrollo de la inteligencia artificial sea “seguro y responsable”

Las empresas líderes de tecnología con proyectos y apuestas en el emergente mercado de la inteligencia artificial se unieron para crear un foro que busca regular de manera “segura y responsable” su desarrollo. Se trata de Google, Open AI, Microsoft y Anthropic que juntas crearon el Foro de Modelos de Frontera (Frontier Model Forum, por sus siglas en inglés). 

El nombre elegido tiene que ver con que el objetivo principal de las compañías es justamente regular los modelos de frontera. Entre todas lo definieron como modelos de aprendizajes automáticos a gran escala que “superan las capacidades actualmente presentes” de los proyectos existentes más avanzados y pueden realizar una “amplia” variedad de tareas.  

El foro se basará en la experiencia técnica y operativa de sus empresas miembros para beneficiar a todo el ecosistema de Inteligencia Artificial, por ejemplo, mediante el avance de evaluaciones técnica de puntos de referencia. Como también el desarrollo de una biblioteca pública de soluciones para respaldar mejores prácticas y estándares de la industria”, precisaron las empresas, en un comunicado conjunto.

DeepMind (Google) y Microsoft AI son los brazos que desarrollan diversas herramientas y tienen iniciativas impulsadas con inteligencia artificial de los dos gigantes de tecnología. Entre sus proyectos se destaca el chatbot Bard, la IA Copilot, y la IA Gemini. 

Mientras que, en el caso de Open IA, su proyecto más importante es ChatGPT. Por su parte, Anthtropic es una startup que fue fundada hace dos años, por exmiembros de Open AI, y su trabajo más importante es el chatbot Claude. 


Inteligencia artificial: los principales objetivos del foro


En el comunicado conjunto que realizaron las empresas resaltaron cuatro puntos principales que buscan lograr con el foro. También confirmaron que designarán una Junta Asesora para ayudar a guiar estrategias y prioridades. 

Investigación: avanzar en la investigación de seguridad de la IA para promover el desarrollo responsable de modelos de frontera, minimizar los riesgos y permitir evaluaciones independientes y estandarizadas de capacidades y seguridad. 

Responsabilidad: identificar las mejores prácticas para el desarrollo e implementación responsable de modelos de frontera, ayudando al público a comprender la naturaleza, las capacidades, las limitaciones y el impacto de la tecnología. 

Colaboración: trabajar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre riesgos de confianza y seguridad. 

Desarrollo: apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a enfrentar los mayores desafíos de la sociedad, como la mitigación y adaptación al cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las ciberamenazas. 


Adherido a los criterios de
Journalism Trust Initiative
<span>Adherido a los criterios de <br><strong>Journalism Trust Initiative</strong></span>

Nuestras directrices editoriales

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios