OpenAI y Anthropic han suscrito sendos acuerdos con el gobierno estadounidense, en virtud de los cuales las autoridades podrán investigar, probar y evaluar los nuevos modelos de IA antes de su lanzamiento público.
Los Memorandos de Entendimiento de cada una de las empresas establecen un marco por el que el US AI Safety Institute (Instituto de Seguridad en IA de Estados Unidos) gozará de acceso temprano a los principales modelos que vayan apareciendo y continuará estudiándolos tras su lanzamiento.
Los Memorandos también prevén una investigación colaborativa destinada a evaluar las capacidades y riesgos potenciales de los modelos de IA, así como métodos de mitigación del peligro.
Los organismos reguladores presionan cada vez más a las firmas especializadas en IA para que se atengan a estándares éticos en el uso y el entrenamiento de los grandes modelos lingüísticos.
Elizabeth Kelly, directora del US AI Safety Institute, ha declarado que dichos “acuerdos son sólo el principio, pero constituyen un hito importante en el trabajo que estamos realizando para contribuir a encaminar de manera responsable el futuro de la IA”.
El Instituto prevé informar a Anthropic y OpenAI sobre las mejoras de seguridad que puedan introducir en sus modelos, en colaboración con sus socios del UK AI Safety Institute (Instituto de Seguridad en IA del Reino Unido).
El US AI Safety Institute forma parte del National Institute of Standards and Technology (Instituto Nacional de Estándares y Tecnología) del Departamento de Comercio estadounidense.
Comments