La Comisión Europea ha recibido la versión final del Código de Buenas Prácticas para modelos de inteligencia artificial de propósito general, un instrumento voluntario que busca anticipar la implementación efectiva del Reglamento de IA (AI Act), cuya entrada en vigor está prevista para el próximo 2 de agosto de 2025. Con información de la Comisión Europea.
El documento, elaborado por trece expertos independientes con la colaboración de más de 1.000 actores del ecosistema europeo de IA —entre ellos proveedores de modelos, pymes tecnológicas, académicos, expertos en seguridad, titulares de derechos y organizaciones civiles—, ofrece una guía concreta para que las empresas adapten sus modelos a las exigencias legales que se avecinan.
Dividido en tres capítulos —transparencia, derechos de autor y gestión de riesgos sistémicos—, el Código está diseñado para facilitar a los desarrolladores el cumplimiento progresivo de las disposiciones del AI Act, especialmente en lo relativo a los modelos más avanzados, como ChatGPT, Claude o Gemini. Los proveedores que lo adopten podrán beneficiarse de una menor carga administrativa y una mayor seguridad jurídica.
Uno de los pilares fundamentales del texto es la transparencia. El Código exige a los desarrolladores documentar detalladamente la arquitectura, funcionamiento, capacidades y limitaciones de sus sistemas de IA. Para ello, se introduce un formulario estandarizado (Model Documentation Form) que permitirá simplificar y unificar la recolección de información técnica, garantizando la trazabilidad de los modelos y su responsabilidad ante terceros.
En cuanto a los derechos de autor, el Código establece que los modelos no deben entrenarse con contenido protegido sin autorización. Además, exige que se respeten las solicitudes de exclusión presentadas por autores y artistas, y obliga a los proveedores a contar con mecanismos eficaces para resolver cualquier infracción que pueda surgir con el contenido generado.
El tercer capítulo, centrado en la seguridad, solo aplica a los modelos más potentes y aborda los riesgos sistémicos que podrían amenazar derechos fundamentales o la seguridad pública. Aquí se incluyen prácticas de mitigación de riesgos, auditorías internas y controles que respondan al estado del arte, para evitar posibles usos indebidos como el desarrollo de armas químicas o biológicas.
Pese a su carácter voluntario, el Código ha generado fricciones en el sector tecnológico. Empresas como Meta y Google han expresado su preocupación por lo que consideran una complejidad añadida al AI Act. Al mismo tiempo, un grupo de grandes compañías europeas —incluidas ASML, Airbus y Mistral AI— ha pedido una moratoria de dos años, argumentando que las nuevas exigencias podrían frenar la innovación.
Sin embargo, la Comisión ha descartado cualquier aplazamiento. Aunque la supervisión directa del cumplimiento no comenzará hasta agosto de 2026 —cuando la Oficina de IA de la Comisión asuma esa tarea—, a partir del 2 de agosto de 2025 las nuevas obligaciones serán legalmente exigibles. Durante ese primer año, serán los tribunales nacionales los encargados de hacerlas cumplir, a pesar de las dudas sobre su preparación técnica.
Henna Virkkunen, vicepresidenta ejecutiva para Soberanía Tecnológica, Seguridad y Democracia, hizo un llamado a la industria: “Invito a todos los proveedores de modelos de IA generalista a adherirse al Código. Así asegurarán una vía clara y colaborativa hacia el cumplimiento del Reglamento de IA de la UE”.











