POLÍTICA DE USO DE INTELIGENCIA ARTIFICIAL (IA)
Efectos Navales y Droguería Ramírez S.L.
1. OBJETIVO Y ALCANCE
El objetivo de esta política es establecer las directrices para el uso responsable, seguro y ético de las herramientas de Inteligencia Artificial en Efectos Navales y Droguería Ramírez S.L. Esta política aplica a todos los empleados, colaboradores y proveedores que utilicen sistemas de IA en nombre de la organización.
2. MARCO LEGAL DE REFERENCIA
La organización cumple estrictamente con:
- Reglamento (UE) 2024/1689 (Ley de IA de la UE): Regulación armonizada sobre IA.
- RGPD (Reglamento General de Protección de Datos): Especialmente en el tratamiento de datos personales e imágenes.
- Anteproyecto de Ley para el Buen Uso y Gobernanza de la IA en España.
- Recomendaciones de la AEPD sobre IA y protección de datos.
3. PRINCIPIOS GENERALES
- Supervisión Humana: La IA se utiliza como apoyo, no para sustituir la toma de decisiones humana en procesos críticos.
- Transparencia: Se informará cuando se interactúe con una IA o se utilicen contenidos generados por ella.
- Seguridad y Confidencialidad: Prohibido introducir datos confidenciales, secretos comerciales o datos personales (RGPD) en herramientas de IA generativa públicas o no autorizadas.
- No Discriminación: Se evitará el uso de sistemas que generen sesgos injustos o discriminación de género, raza o cualquier otra condición.
4. USOS PROHIBIDOS (Reglamento UE)
Queda totalmente prohibido el uso de herramientas de IA que:
- Manipulen el comportamiento humano de forma perjudicial.
- Realicen perfilado social o puntuación de ciudadanos.
- Utilicen identificación biométrica remota en tiempo real en espacios públicos (salvo casos muy excepcionales regulados).
5. CLASIFICACIÓN Y USO DE IA GENERATIVA
- IA de Bajo Riesgo: (Asistencia de escritura, búsqueda) Uso permitido bajo supervisión.
- IA de Alto Riesgo: (Evaluación de personal, selección de CV, procesos críticos) Requieren aprobación previa del departamento de Cumplimiento y evaluación de riesgo antes de su uso.
- Contenidos Generados: Todo contenido (texto, imagen, video) generado por IA que se haga público debe ser etiquetado explícitamente a partir de agosto de 2026.
6. RESPONSABILIDADES DEL EMPLEADO
- Verificar la veracidad de la información generada por IA (evitar «alucinaciones»).
- Reportar cualquier funcionamiento erróneo o sesgo detectado.
- No utilizar IA para crear deepfakes o contenido engañoso.
7. SANCIONES
El incumplimiento de esta política podrá acarrear medidas disciplinarias, de acuerdo con el convenio colectivo aplicable, sin perjuicio de las responsabilidades civiles o penales derivadas de la violación del RGPD o la Ley de IA.
8. VIGENCIA Y ACTUALIZACIÓN
Esta política entra en vigor el 03/09/2023 y se revisará periódicamente para adaptarse a las guías de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA).
Notas clave según la normativa actual (Marzo 2026):
- Etiquetado obligatorio: Desde agosto de 2026, los contenidos IA deberán ser etiquetados.
- Protección de imágenes: La AEPD advierte sobre riesgos graves al alimentar IA con imágenes de personas.
- Sanciones: Las multas pueden llegar hasta el 7% de la facturación global o 35 millones de euros en casos graves.
