1. La idea principal

El AI Act, o Reglamento Europeo de Inteligencia Artificial, sí es obligatorio, pero no significa que todos los autónomos y pequeñas empresas tengan que hacer una implantación enorme, cara o complicada.

Para la mayoría de negocios pequeños, el cumplimiento será algo bastante razonable: saber qué herramientas de inteligencia artificial se usan, controlar qué datos se meten en ellas, formar mínimamente al personal, avisar al cliente cuando hable con un chatbot, revisar los resultados antes de usarlos y evitar usos peligrosos.

La Comisión Europea confirma que el AI Act se aplica por fases: desde el 2 de febrero de 2025 ya aplican las normas generales, la alfabetización en IA y las prácticas prohibidas; desde el 2 de agosto de 2026 empiezan a aplicarse la mayoría de reglas, incluidas las de transparencia del artículo 50 y las de sistemas de alto riesgo del Anexo III; y desde el 2 de agosto de 2027 aplican las reglas para sistemas de alto riesgo integrados en determinados productos regulados.

Si un autónomo usa ChatGPT para redactar emails o documentos, no tiene que montar una estructura enorme. Pero sí debería tener unas normas básicas de uso, controlar los datos personales, revisar lo que genera la IA y poder demostrar que usa la IA con cuidado.

2. Semáforo rápido: ¿dónde estoy?

Antes de leerlo todo, mira esta tabla. En 30 segundos sabes en qué nivel está tu uso de IA y a qué sección del artículo conviene saltar primero.

Si usas IA para…NivelQué tienes que hacer
Redactar emails, textos, presupuestos o documentos revisados por una persona Verde Política de uso interna, formación básica del personal, no meter datos personales sin control.
Chatbot o asistente que habla con clientes Amarillo Avisar al cliente de que es IA, política de privacidad actualizada, ofrecer un canal humano alternativo.
Generar imágenes, voz o vídeo realista Amarillo Avisar si puede inducir a error, revisar derechos de imagen y voz, marcado de deepfakes cuando proceda.
Filtrar candidatos, valorar empleados, puntuar clientes, solvencia, crédito o seguros Rojo Análisis específico de alto riesgo (Anexo III) y, en su caso, evaluación de impacto en derechos fundamentales antes de usarlo.
Biometría, reconocimiento facial, emociones, vigilancia o clasificación de personas Rojo intenso No usar sin análisis jurídico-técnico serio. Algunos usos están directamente prohibidos por el artículo 5.

3. IA por sectores: usos normales y riesgo principal

Cada sector tiene un patrón típico de uso de IA y un riesgo principal. No es una clasificación oficial; es una orientación práctica para que reconozcas dónde encaja tu actividad.

SectorUsos normales de IARiesgo principal
Asesoría / gestoríaRedactar emails, resumir documentos, preparar borradoresRGPD, confidencialidad, revisión humana
Comercio / e-commerceDescripciones de productos, chatbot, recomendacionesTransparencia, normativa de consumidores, datos de clientes
Clínica / estética / saludTextos informativos, gestión de citas, atención inicialDatos de salud, canal humano disponible, no diagnóstico automático
InmobiliariaRedacción de anuncios, respuestas, valoración inicial de inmueblesNo discriminar, cuidado con solvencia y perfilado
RR. HH. / selecciónFiltrar CV, valorar candidatosAlto riesgo posible
Formación / academiasCorrección, evaluación, itinerarios formativosAlto riesgo posible si evalúa alumnos
Marketing / agenciaImágenes, vídeos, voces, campañasDeepfakes, derechos de imagen, transparencia
Despacho profesionalBorradores jurídicos, informes, respuestasSecreto profesional, revisión humana, RGPD
Restauración / ocioPosts en redes, reservas, chatbot, promocionesTransparencia chatbot, datos de clientes
Industria / instaladoresManuales, soporte técnico, presupuestosSeguridad, responsabilidad por instrucciones erróneas

4. Qué significa “usar IA” en un negocio

Muchas empresas ya usan IA sin darse cuenta. No hace falta tener robots ni programar modelos propios.

Herramienta o uso Ejemplo sencillo
ChatGPT, Copilot, Gemini, Claude u otros asistentesRedactar emails, contratos, presupuestos o publicaciones
Un chatbot en la webResponder preguntas de clientes automáticamente
Un CRM con IASugerir respuestas, clasificar clientes o priorizar oportunidades
Un software de facturación con funciones inteligentesLeer tickets, clasificar gastos o preparar conceptos de factura
Un generador de imágenes o vídeosCrear imágenes para redes sociales o anuncios
Una herramienta de recursos humanos con IAFiltrar currículums o valorar candidatos
Cámaras con análisis inteligenteDetectar personas, caras, emociones o comportamientos

El AI Act define un sistema de IA como un sistema basado en máquinas que, con cierto nivel de autonomía, genera resultados como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o digitales.

5. La primera pregunta: ¿la empresa usa IA o vende IA?

Esto es muy importante porque las obligaciones cambian mucho según el papel real de la empresa.

Calendario

6. Fechas importantes explicadas de forma sencilla

La fecha más importante para la mayoría de autónomos y pequeñas empresas es el 2 de agosto de 2026, porque es cuando empiezan las obligaciones generales más visibles.

Entra en vigor el AI Act Empieza el calendario oficial.
Definiciones, alfabetización y prácticas prohibidas Ya hay que formar mínimamente y evitar usos prohibidos.
Modelos de IA de propósito general y gobernanza Afecta sobre todo a grandes proveedores de modelos.
Mayoría de normas del AI Act Fecha clave para chatbots, transparencia y alto riesgo.
Alto riesgo en productos regulados Afecta sobre todo a fabricantes o productos específicos.

En paralelo, dentro del debate europeo sobre simplificación normativa (el llamado paquete Digital Omnibus) hay propuestas que podrían condicionar parte de la aplicación de algunos sistemas de IA de alto riesgo a la disponibilidad de herramientas de apoyo y estándares armonizados. Es algo a vigilar, y el propio AI Act Service Desk lo señala como propuesta, pero no cambia por sí solo el texto vigente: a fecha de actualización de este artículo, la norma aprobada es el Reglamento (UE) 2024/1689, con las fechas indicadas más arriba. Hasta que cualquier modificación se publique en el Diario Oficial de la Unión Europea, no conviene basar el cumplimiento en esperar una posible prórroga. La recomendación prudente es preparar el cumplimiento con el calendario vigente y actualizar el análisis si la modificación se aprueba definitivamente.

7. Qué debe hacer una empresa pequeña si usa IA para documentos, facturas o atención al cliente

Una situación típica: una empresa pequeña usa IA para redactar emails, preparar contratos o presupuestos, hacer publicaciones en redes sociales, contestar consultas de clientes, resumir documentos, preparar facturas, organizar información, traducir textos o generar imágenes comerciales.

En principio, estos usos suelen ser de riesgo bajo o limitado, siempre que la IA no tome decisiones importantes por sí sola y siempre que una persona revise el resultado.

Medida Explicación sencilla
Inventario de IASaber qué herramientas se usan
Política de usoTener normas básicas: qué se puede hacer y qué no
Formación mínimaQue quien use IA sepa los riesgos básicos
Control de datos personalesNo meter datos de clientes sin control
Revisión humanaNo enviar documentos importantes sin leerlos
TransparenciaAvisar si un cliente habla con un chatbot
SeguridadUsar cuentas protegidas, contraseñas fuertes y doble factor
EvidenciasGuardar documentos que demuestren que se ha hecho el análisis

8. Obligación ya aplicable: alfabetización en IA

Esta es una de las obligaciones más importantes y menos entendidas.

Desde el 2 de febrero de 2025, quienes proporcionen o usen sistemas de IA deben tomar medidas para asegurar, en la medida de lo posible, un nivel suficiente de alfabetización en IA del personal y de otras personas que usen IA en su nombre. El AI Act dice que debe tenerse en cuenta la experiencia, formación, conocimientos técnicos, contexto de uso y personas afectadas.

Si tus trabajadores usan IA, no vale con decir “que cada uno use ChatGPT como quiera”. Hay que explicarles unas normas mínimas.

No hace falta una formación complicada. Para una pyme puede bastar una sesión breve y un documento interno.

Qué debería saber cualquier trabajador que use IA

TemaExplicación sencilla
La IA puede equivocarsePuede inventar datos, leyes, precios, condiciones o respuestas
La IA no sustituye al responsableLa empresa sigue siendo responsable de lo que envía
No todo se puede copiar en una IAHay datos personales o confidenciales que no deben introducirse sin control
Hay que revisar antes de enviarEspecialmente contratos, facturas, presupuestos o respuestas a clientes
Hay que avisar en algunos casosPor ejemplo, si el cliente habla con un chatbot
Hay usos prohibidosManipular, clasificar personas injustamente, usar biometría sensible, etc.

Evidencia recomendada

  • Documento de formación.Debe explicar las reglas básicas y riesgos concretos del negocio.
  • Fecha de la formación.Sirve para demostrar cuándo se impartió.
  • Personas que la han recibido.Conviene guardar asistencia o aceptación.
  • Política interna de uso de IA.Define herramientas permitidas, datos, revisión y usos prohibidos.
  • Aceptación o firma de los trabajadores.Ayuda a acreditar que conocen las normas.
  • Revisión anual.La IA y sus usos cambian; la política no debería quedarse abandonada.

Para un autónomo sin empleados, bastaría con una autoevaluación documentada y una política propia de uso.

9. Protección de datos: el punto más delicado para negocios pequeños

En la práctica, para autónomos y pymes, el problema más frecuente no será el AI Act puro, sino el RGPD.

Cada vez que se mete en una herramienta de IA información de clientes, trabajadores o proveedores, puede haber tratamiento de datos personales.

Ejemplos de datos personales

  • nombre y apellidos;
  • teléfono;
  • email;
  • DNI/NIE;
  • dirección;
  • número de cuenta;
  • facturas;
  • conversaciones de WhatsApp;
  • documentos de clientes;
  • datos de salud;
  • nóminas;
  • imágenes;
  • voz;
  • matrículas;
  • datos económicos.

La AEPD recuerda que el artículo 32 del RGPD obliga a responsables y encargados a aplicar medidas técnicas y organizativas apropiadas para garantizar un nivel de seguridad adecuado al riesgo. También indica que, para seleccionar medidas, pueden usarse estándares de seguridad existentes como la familia ISO 27000.

No metas en una IA información que no enviarías tranquilamente a un proveedor externo sin contrato, sin garantías y sin saber qué hará con esos datos.

Qué revisar antes de usar una IA con datos de clientes

PreguntaQué significa
¿Qué datos voy a meter?No es lo mismo un texto anónimo que una factura con datos personales
¿Es necesario meter esos datos?Si puedes anonimizar, mejor
¿La herramienta guarda los datos?Hay que revisar condiciones
¿La herramienta usa los datos para entrenar modelos?Es un punto crítico
¿Dónde se procesan los datos?UE, EEUU u otros países
¿Hay contrato de encargado del tratamiento?Importante si el proveedor trata datos por cuenta de la empresa
¿Puedo borrar los datos?Hay que revisar conservación y supresión
¿Quién tiene acceso?Control de usuarios, permisos y contraseñas
¿Debo informar al cliente?Si cambia el tratamiento, puede ser necesario actualizar privacidad

10. Uso de IA para generar documentos

Este es uno de los usos más habituales: redactar un contrato, preparar un presupuesto, contestar un email, hacer una propuesta comercial, resumir documentación, mejorar el estilo de un texto, traducir o crear informes.

Normalmente es un uso de bajo riesgo si se cumplen tres condiciones:

  1. La IA no decide por sí sola.
  2. Una persona revisa el resultado.
  3. No se introducen datos personales o confidenciales sin control.

Qué puede salir mal

ProblemaEjemplo
La IA inventa informaciónCita una ley que no existe o una condición contractual incorrecta
La IA se equivoca en preciosPropone un precio o descuento no autorizado
La IA revela datosSe copian datos de clientes en una herramienta no validada
La IA redacta algo engañosoPromete más de lo que la empresa puede cumplir
La IA genera contenido no revisadoSe envía una respuesta incorrecta a un cliente

La IA puede ayudar a redactar documentos, pero ningún documento importante debe enviarse sin revisión humana.

11. Uso de IA para facturas

Una IA puede ayudar en tareas de facturación, pero hay que distinguir.

UsoRiesgo habitual
Redactar el concepto de una facturaBajo
Clasificar gastosBajo
Leer tickets o facturasBajo/medio por datos personales
Preparar borradores de facturaBajo si se revisa
Decidir si se concede crédito a una personaPuede ser alto riesgo
Puntuar la solvencia de una persona físicaAlto riesgo posible
Aplicar precios o condiciones automáticamente según perfil personalHay que analizarlo con cuidado

El Anexo III del AI Act incluye como alto riesgo los sistemas destinados a evaluar la solvencia de personas físicas o establecer puntuaciones crediticias, salvo los usados para detectar fraude financiero. También incluye sistemas relacionados con seguros de vida y salud, servicios esenciales y otros ámbitos especialmente sensibles.

Usar IA para preparar una factura no suele ser grave. Usar IA para decidir si una persona merece crédito, financiación, seguro o acceso a un servicio importante ya puede ser mucho más delicado.

12. Uso de IA para atender clientes

Este es uno de los puntos más importantes para pequeñas empresas. Puede aparecer en un chatbot en la web, un bot de WhatsApp, un asistente virtual, respuestas automáticas en email, un sistema que guía al cliente para contratar o una IA que recomienda productos o servicios.

Obligación principal: avisar

Si una persona está interactuando con una IA, debe saberlo, salvo que sea evidente. El artículo 50 exige que los sistemas de IA destinados a interactuar directamente con personas informen de que se está interactuando con un sistema de IA, salvo que resulte obvio por el contexto. También exige que la información se facilite de forma clara y accesible, como tarde en la primera interacción o exposición.

Texto recomendado para un chatbot

Estás interactuando con un asistente virtual basado en inteligencia artificial. Sus respuestas pueden contener errores y no sustituyen la revisión de una persona del equipo. Para cuestiones importantes, puedes solicitar atención humana.

Si además recoge datos personales

No introduzcas datos especialmente sensibles, como datos de salud, ideología, religión, orientación sexual, datos biométricos o información especialmente delicada. Si tu consulta requiere tratar este tipo de información, solicita atención humana o utiliza el canal específico habilitado para ello. Trataremos los datos que nos facilites para atender tu consulta conforme a nuestra política de privacidad.

Si el cliente puede pensar que está hablando con una persona, hay que avisarle claramente de que está hablando con una IA.

13. Uso de IA para marketing, imágenes, vídeos y redes sociales

Muchas empresas usan IA para crear imágenes, hacer anuncios, generar vídeos, crear locuciones, editar fotografías, preparar publicaciones en LinkedIn, Instagram o TikTok, y crear avatares o voces artificiales.

El AI Act exige transparencia en algunos contenidos generados o manipulados por IA, pero no obliga a etiquetar cualquier documento, email o texto interno hecho con ayuda de IA. Para los usuarios profesionales o deployers, la obligación principal aparece cuando se generan o manipulan imágenes, audio o vídeo que constituyen un deepfake, o cuando se publica texto generado o manipulado por IA con la finalidad de informar al público sobre asuntos de interés público. En este último caso, no será necesario revelar el uso de IA si el contenido ha pasado por revisión humana o control editorial y una persona física o jurídica asume la responsabilidad editorial de la publicación.

Casos prácticos

CasoQué hacer
Imagen claramente publicitaria creada con IARecomendable indicar si puede inducir a error
Vídeo realista de una persona diciendo algo que no dijoAvisar claramente de que es contenido generado/manipulado
Voz sintética que parece una persona realAvisar y revisar derechos de imagen/voz
Imagen artística no realistaMenor riesgo, pero conviene no engañar
Post informativo generado por IARevisar antes de publicar y asumir responsabilidad editorial
Texto simple recomendado

Contenido generado o editado con inteligencia artificial.

Para un vídeo o voz realista

Este contenido ha sido generado o manipulado mediante inteligencia artificial y no representa una grabación real.

14. Usos prohibidos: lo que una pyme no debe hacer

El AI Act prohíbe ciertos usos de IA desde el 2 de febrero de 2025. Entre ellos están las técnicas manipuladoras o engañosas que distorsionen decisiones y puedan causar daño, la explotación de vulnerabilidades por edad, discapacidad o situación social/económica, el social scoring, la creación de bases de reconocimiento facial mediante scraping indiscriminado, la inferencia de emociones en trabajo o educación salvo excepciones, y la categorización biométrica para deducir atributos sensibles.

Uso prohibido o muy peligrosoEjemplo claro
Manipular al cliente de forma ocultaUn bot que presiona psicológicamente a personas vulnerables para comprar
Aprovechar vulnerabilidadesDirigirse de forma abusiva a ancianos, menores o personas endeudadas
Hacer “puntuaciones sociales”Clasificar personas como “buenas” o “malas” por comportamiento personal
Crear o ampliar bases de reconocimiento facial mediante scraping indiscriminado de internet o cámaras CCTVCrear una base de reconocimiento facial con imágenes de clientes, transeúntes, redes sociales o cámaras sin una base jurídica clara y, especialmente, mediante captación masiva o indiscriminada.
Detectar emociones de trabajadoresUsar IA para decir si un empleado está triste, enfadado o desmotivado
Deducir datos sensibles por biometríaInferir religión, orientación sexual, ideología o raza por rasgos físicos

¿Estoy usando la IA para ayudar en mi trabajo o para manipular, vigilar, clasificar o decidir sobre personas?

Si la respuesta se acerca a manipular, vigilar, clasificar o decidir sobre personas, hay que parar y analizarlo bien.

15. Cuándo una pequeña empresa puede entrar en “alto riesgo”

La mayoría de usos normales no serán de alto riesgo. Pero hay algunos ámbitos donde hay que tener mucho cuidado.

El Anexo III del AI Act incluye sistemas de alto riesgo en áreas como biometría, infraestructuras críticas, educación, empleo, acceso a servicios esenciales, crédito, seguros de vida y salud, fuerzas de seguridad, migración, justicia y procesos democráticos.

Tabla sencilla de alerta

Uso de IA¿Puede ser alto riesgo?
Redactar emailsNormalmente no
Preparar presupuestosNormalmente no
Crear publicaciones para redesNormalmente no
Chatbot de atención básicaNormalmente transparencia, no alto riesgo
Filtrar currículumsSí, puede ser alto riesgo
Valorar candidatosSí, puede ser alto riesgo
Evaluar rendimiento de empleadosSí, puede ser alto riesgo
Asignar tareas según comportamiento o rasgos personalesSí, puede ser alto riesgo
Decidir crédito o financiaciónSí, puede ser alto riesgo
Puntuar solvencia de personas físicasSí, puede ser alto riesgo
Calcular riesgo o precio en seguros de vida o saludSí, puede ser alto riesgo
Reconocimiento facial o biometríaPuede ser alto riesgo o incluso prohibido según uso
IA en educación o evaluación de alumnosPuede ser alto riesgo
IA usada por autoridades judiciales, o en mediación/arbitraje con efectos jurídicos, para asistir en la interpretación de hechos y derechoPuede ser alto riesgo

Ejemplos prácticos

CasoNivel aproximado
Peluquería usa ChatGPT para redactar posts de InstagramBajo
Autónomo usa IA para contestar emails, revisando antesBajo
Gestoría usa IA para resumir documentos de clientesBajo/medio por RGPD
Tienda online usa chatbot y avisa al clienteTransparencia
Empresa usa IA para descartar CV automáticamenteAlto riesgo posible
Inmobiliaria usa IA para decidir a quién alquilaRiesgo alto RGPD/discriminación
Financiera usa IA para scoring de créditoAlto riesgo
Empresa usa reconocimiento facial para identificar clientesMuy delicado
Empresa usa IA para medir emociones de trabajadoresProhibido salvo excepciones concretas

16. Qué pasa si la IA sí es de alto riesgo

Si una pyme usa una IA de alto riesgo, las obligaciones son mucho mayores.

El artículo 26 obliga a los deployers de sistemas de IA de alto riesgo a usar el sistema según las instrucciones, asignar supervisión humana competente, controlar que los datos de entrada sean adecuados cuando estén bajo su control, monitorizar el funcionamiento, informar de riesgos o incidentes graves, conservar logs cuando estén bajo su control durante un periodo adecuado de al menos seis meses e informar a trabajadores y representantes antes de usar sistemas de alto riesgo en el lugar de trabajo.

ObligaciónQué significa realmente
Usar la herramienta como dice el proveedorNo usarla para fines distintos
Supervisión humanaUna persona formada debe controlar el uso
Datos adecuadosNo meter datos incompletos, sesgados o incorrectos
Vigilar funcionamientoComprobar que no falla o discrimina
Avisar de incidentesSi causa un problema serio, hay que comunicarlo
Guardar registrosMantener logs si están bajo control de la empresa
Informar a trabajadoresSi se usa en el trabajo, los empleados deben saberlo
Informar a personas afectadasSi el sistema toma o ayuda a tomar decisiones sobre personas físicas (Anexo III), esas personas deben ser informadas de que están sujetas al uso del sistema de IA (artículo 26.11).

Evaluación de impacto en derechos fundamentales

En algunos sistemas de IA de alto riesgo no basta con supervisión humana, logs y uso conforme a instrucciones: puede ser necesaria una evaluación de impacto en derechos fundamentales (artículo 27 del AI Act) antes de poner el sistema en marcha. Esto es especialmente relevante para:

  • Organismos públicos.
  • Entidades privadas que presten servicios públicos.
  • Sistemas de alto riesgo usados para evaluar la solvencia de personas físicas o calcular riesgo o precio en seguros de vida o salud.

En estos casos no basta con una política básica de uso de IA: debe hacerse un análisis específico documentado antes del despliegue.

Si la IA se usa para contratar, despedir, evaluar trabajadores, valorar solvencia, conceder crédito, analizar biometría, evaluar alumnos, seguros, salud o decisiones importantes sobre personas, no debe implantarse sin análisis específico.

17. Sanciones por incumplimiento

El AI Act sí prevé multas, y son altas. El régimen sancionador está en los artículos 99 a 101 del Reglamento (UE) 2024/1689. Lo más importante para autónomos y pequeñas empresas no es memorizar las cifras máximas, sino entender la regla de proporcionalidad que el propio Reglamento incluye para las pymes.

Tres tramos de multa

En pymes y start-ups se aplica la regla inversa (artículo 99.6): se toma como referencia el importe que resulte menor entre la cifra fija y el porcentaje de volumen de negocio. La tabla muestra la regla general para empresas no pyme.

Tipo de incumplimiento Regla general: tope de multa para empresas no pyme
Usar IA en alguna de las prácticas prohibidas del artículo 5 (manipulación, social scoring, categorización biométrica sensible, etc.) 35.000.000 € o el 7 % del volumen de negocio mundial total del año anterior
Incumplir el resto de obligaciones del Reglamento (alto riesgo, transparencia del artículo 50, deberes de proveedores y deployers, etc.) 15.000.000 € o el 3 % del volumen de negocio mundial
Suministrar a las autoridades información incorrecta, incompleta o engañosa 7.500.000 € o el 1 % del volumen de negocio mundial

Para los proveedores de modelos de IA de propósito general (GPAI), el artículo 101 establece un régimen propio con tope de hasta 15.000.000 € o el 3 % del volumen de negocio mundial.

La regla de proporcionalidad para autónomos y pymes

Esta es la parte más relevante para un negocio pequeño. El artículo 99.6 del AI Act dice expresamente que, cuando la sanción se imponga a una pyme (incluida una start-up), se aplicará el importe que sea menor de los dos posibles, no el mayor. Es decir, exactamente al revés que con grandes empresas.

Para una pyme, el tope práctico de la multa es la cifra fija o el porcentaje de su facturación, siempre la menor de las dos. Una multa diseñada como “7 % del volumen mundial” pierde sentido para un autónomo cuya facturación es modesta: el tope efectivo sería el porcentaje sobre su facturación real, no los 35 millones.

Eso no significa que el riesgo desaparezca. Significa que la sanción debe ser proporcional al tamaño y la facturación del negocio. Una autoridad sigue pudiendo imponer multas relevantes en relación con los ingresos de la empresa.

Desde cuándo son exigibles

El régimen sancionador del Capítulo XII aplica desde el 2 de agosto de 2025. Eso no significa que todas las obligaciones puedan sancionarse desde esa fecha: cada incumplimiento debe analizarse según la fecha en que la obligación concreta sea aplicable (artículo 113 del Reglamento).

  • 2 de febrero de 2025.Ya son exigibles las prácticas prohibidas del artículo 5 y la obligación de alfabetización en IA.
  • 2 de agosto de 2025.Aplica el régimen sancionador (Capítulo XII) y las obligaciones para modelos de IA de propósito general.
  • 2 de agosto de 2026.Aplican, con carácter general, las obligaciones de transparencia del artículo 50 y las de sistemas de alto riesgo del Anexo III, así como los deberes de deployers y proveedores.
  • 2 de agosto de 2027.Aplican las obligaciones para sistemas de alto riesgo integrados en determinados productos regulados.

Quién impone las multas en España

Cada Estado miembro debe designar autoridades nacionales que apliquen el régimen sancionador. En España, el Real Decreto 729/2023 aprobó el Estatuto de la AESIA (Agencia Española de Supervisión de la Inteligencia Artificial), con sede en A Coruña, como agencia estatal especializada en supervisión de IA y coordinada con el marco europeo. En la práctica habrá que atender a las autoridades nacionales designadas y a sus competencias concretas; cuando además haya tratamiento de datos personales, la AEPD mantiene su competencia propia en materia de protección de datos.

El mayor riesgo práctico para un autónomo o pyme no suele ser una multa millonaria, sino una concurrencia de sanciones: incumplimiento del AI Act + brecha de RGPD + reclamación de un cliente + pérdida reputacional. Por eso conviene ordenar el uso de IA antes de que llegue el problema, no después.

18. ISO 27001 e ISO 27002: qué pintan aquí

Esto es importante porque muchas empresas mezclan conceptos.

¿Es obligatorio certificarse?

En general, no. ISO e IEC describen sus estándares como estándares voluntarios; una norma se vuelve obligatoria cuando una legislación la usa como base o la exige en una jurisdicción concreta.

PreguntaRespuesta clara
¿El AI Act obliga a certificarse en ISO 27001?No, de forma general no
¿El RGPD obliga a tener ISO 27001?No directamente
¿Puede ayudar ISO 27001?Sí, mucho
¿Puede un cliente exigirla por contrato?
¿Puede ser recomendable para empresas con más riesgo?
¿Es necesaria para un autónomo que usa ChatGPT para textos?Normalmente no

ISO 27001 no es obligatoria para todos, pero es una buena referencia para ordenar la seguridad de la información. Para autónomos y pequeñas empresas, se puede aplicar una versión proporcional, sin necesidad de certificarse, salvo que un cliente, licitación o contrato lo exija.

Para pymes y autónomos, lo razonable no suele ser empezar por una certificación ISO/IEC 27001 completa, sino aplicar una versión proporcional de sus principios: inventario, análisis de riesgos, controles, responsabilidades, evidencias y revisión periódica.

19. Qué debe tener una pyme para estar razonablemente cubierta

Para un autónomo o pequeña empresa que usa IA de forma normal, el paquete mínimo recomendable sería este.

1. Inventario de herramientas de IA

HerramientaPara qué se usaQuién la usaQué datos se introducenRiesgo
ChatGPTRedactar emails y documentosAdministraciónA veces datos de clientesBajo/RGPD
Chatbot webAtender consultasClientes webNombre, email, consultaTransparencia/RGPD
Software facturaciónLeer tickets y facturasContabilidadFacturas y proveedoresRGPD/seguridad
Generador de imágenesMarketingMarketingSin datos personalesBajo

2. Clasificación del riesgo

PreguntaSi la respuesta es sí
¿Habla directamente con clientes?Hay que avisar de que es IA
¿Trata datos personales?Revisar RGPD
¿Usa datos sensibles?Análisis reforzado
¿Toma decisiones sobre personas?Mucho cuidado
¿Filtra candidatos o trabajadores?Alto riesgo posible
¿Evalúa crédito, solvencia o seguros?Alto riesgo posible
¿Usa biometría, caras, emociones o voz?Muy delicado
¿Genera vídeos o voces realistas?Transparencia/deepfake

3. Política interna de uso de IA

Debe explicar qué herramientas se pueden usar, para qué se pueden usar, qué datos no se pueden introducir, quién puede usarlas, cuándo hay que revisar, cuándo hay que avisar al cliente, qué usos están prohibidos y qué hacer si hay un error o incidente.

4. Formación básica

Debe cubrir qué es la IA, errores y alucinaciones, protección de datos, confidencialidad, revisión humana, transparencia, usos prohibidos y ejemplos reales del negocio.

5. Control de proveedores

Hay que revisar condiciones del proveedor, si usa los datos para entrenar, dónde procesa los datos, medidas de seguridad, contrato de encargado si procede, subencargados, opciones de borrado y configuración de privacidad.

6. Textos de transparencia

Para chatbot

Estás interactuando con un asistente virtual basado en inteligencia artificial. Puede cometer errores. Para cuestiones importantes, puedes solicitar atención humana.

Para contenido generado con IA, cuando proceda

Contenido generado o editado con inteligencia artificial.

Para deepfake o voz/vídeo realista

Este contenido ha sido generado o manipulado mediante inteligencia artificial y no representa una grabación real.

7. Seguridad mínima

  • cuentas individuales;
  • doble factor de autenticación;
  • contraseñas fuertes;
  • no compartir usuarios;
  • limitar permisos;
  • borrar conversaciones innecesarias;
  • no subir bases de datos completas;
  • anonimizar cuando se pueda;
  • revisar accesos periódicamente;
  • tener registro de incidentes.

8. Carpeta de evidencias

Crear una carpeta llamada Cumplimiento IA / AI Act / 2026.

DocumentoPara qué sirve
Inventario de IADemuestra que se sabe qué herramientas se usan
Evaluación de riesgoDemuestra que se ha analizado el impacto
Política de uso de IADa normas internas
Registro de formaciónPrueba la alfabetización en IA
Textos de transparenciaPrueba que se informa al cliente
Revisión RGPDPrueba control sobre datos personales
Revisión de proveedoresPrueba diligencia
Configuración de seguridadPrueba medidas técnicas
Registro de incidenciasPrueba control ante problemas
Revisión anualPrueba mantenimiento

20. Qué hago mañana por la mañana

Si has llegado hasta aquí y quieres empezar a ordenar el cumplimiento en cuestión de horas, no semanas, este es el plan mínimo. Muchos pasos pueden empezarse en cuestión de minutos con una hoja de cálculo y un documento de texto. El tiempo total dependerá del número de herramientas, empleados y datos sensibles que tenga tu negocio.

  1. Haz una lista de todas las herramientas de IA que usas. ChatGPT, Copilot, Gemini, Claude, asistentes integrados en tu CRM, software de facturación, generadores de imagen, traductores, chatbot web. Si dudas si una herramienta tiene IA, inclúyela.
  2. Marca cuáles usan datos personales. Si introduces nombres, emails, teléfonos, datos de clientes, facturas, currículums o cualquier información identificable, márcalas.
  3. Revisa si alguna habla directamente con clientes. Chatbot web, asistente en WhatsApp, respuestas automáticas, contestador con IA. Esas tienen obligaciones de transparencia (artículo 50).
  4. Revisa si alguna decide o ayuda a decidir sobre personas. Filtra CV, valora candidatos, puntúa solvencia, recomienda precios según perfil, evalúa empleados. Si la respuesta es sí, párate aquí: puede ser alto riesgo.
  5. Prohíbe introducir datos sensibles en herramientas no validadas. Salud, ideología, religión, orientación sexual, biometría. Comunícalo por escrito al equipo.
  6. Redacta una política interna sencilla. Una página basta: qué herramientas se pueden usar, para qué, qué datos no, quién revisa, cuándo avisar al cliente.
  7. Da una formación básica al equipo. Una sesión breve sobre los riesgos, la política y los usos prohibidos. La alfabetización en IA es obligación desde el 2 de febrero de 2025 (artículo 4 del AI Act).
  8. Guarda evidencias. Una carpeta llamada «Cumplimiento IA» con: el inventario, la política, el registro de la formación, los textos de transparencia que uses y la fecha de revisión.

Hecho esto, ya estás en mejor posición que la inmensa mayoría de pymes. El siguiente paso es la revisión periódica: actualizar la lista cada vez que el equipo añada una herramienta nueva.

21. Checklist final para autónomos y pequeñas empresas

PreguntaSí/No
¿Sé qué herramientas de IA uso en mi negocio?
¿Sé para qué se usa cada una?
¿Sé si introduzco datos personales?
¿He prohibido meter datos sensibles sin control?
¿Tengo una política interna de uso de IA?
¿He formado mínimamente al personal?
¿Reviso los documentos antes de enviarlos?
¿Aviso al cliente si habla con un chatbot?
¿Identifico contenido sintético cuando puede inducir a error?
¿He revisado si algún uso puede ser de alto riesgo?
¿He descartado usos prohibidos?
¿He revisado proveedores y privacidad?
¿Uso doble factor de autenticación?
¿Guardo evidencias del cumplimiento?
¿Reviso esto al menos una vez al año?

22. Resumen para explicar a un cliente no técnico

El AI Act no obliga a todos los autónomos y pequeñas empresas a hacer una implantación compleja ni a certificarse en ISO 27001. Pero si usan inteligencia artificial en su actividad profesional, sí deben hacerlo con control.

Lo mínimo recomendable es saber qué IA usan, para qué la usan y qué datos introducen, formar mínimamente al personal, revisar los resultados antes de usarlos, informar al cliente cuando interactúe con un chatbot y etiquetar contenido generado o manipulado por IA cuando legalmente proceda — especialmente deepfakes, voz o vídeo realista, o textos informativos de interés público sin control editorial humano. Y evitar usos prohibidos o de alto riesgo.

Si la IA solo ayuda a redactar emails, presupuestos o documentos, normalmente el riesgo es bajo. Si la IA decide sobre personas, filtra candidatos, puntúa solvencia, usa biometría, evalúa trabajadores o afecta a derechos importantes, entonces el análisis debe ser mucho más serio.

23. Conclusión final

Para un autónomo o pequeña empresa, cumplir con el AI Act no debe plantearse como "hacer una ISO" ni como comprar una herramienta cara. Debe plantearse como un sistema sencillo, proporcionado y documentado.

La empresa debería poder demostrar:

  1. Qué IA usa.
  2. Para qué la usa.
  3. Qué datos introduce.
  4. Qué riesgos ha revisado.
  5. Qué usos están prohibidos.
  6. Qué personas han recibido formación.
  7. Qué resultados se revisan manualmente.
  8. Cómo se informa al cliente cuando toca.
  9. Qué medidas de seguridad se aplican.
  10. Qué evidencias conserva.

No se trata de prohibir la IA. Se trata de usarla con cabeza, con transparencia, protegiendo los datos personales y evitando que una máquina tome decisiones importantes sobre personas sin control humano.

Quick glossary

Terms from the European AI Regulation used in this article, explained in one line.

AI Act
Regulation (EU) 2024/1689 of the European Parliament and of the Council, known as the European Artificial Intelligence Regulation.
Deployer
Anyone using an AI system in their professional activity under their authority. This is the most common role for freelancers and SMEs (Article 3 of the AI Act).
AI provider
Anyone developing an AI system or placing it on the market under their own name or brand, free of charge or for payment. It has many more obligations than a deployer.
Annex III
Official AI Act list of areas where AI is considered high risk (employment, credit, biometrics, education, life and health insurance, etc.).
Article 50
AI Act article regulating transparency obligations: informing users when they are interacting with AI and marking AI-generated content where appropriate.
Article 26
AI Act article regulating the obligations of deployers of high-risk AI systems: human oversight, input-data control, logs, information to workers, etc.
Article 5
AI Act article listing prohibited AI practices: manipulation, exploitation of vulnerabilities, social scoring, indiscriminate facial scraping, etc.
AI literacy
Minimum knowledge of how AI works, its limits and risks, required by the AI Act for staff using AI at work (Article 4).
GPAI
General-purpose AI models, such as the large models behind ChatGPT, Claude or Gemini. They have their own rules within the AI Act.
Deepfake
AI-generated or manipulated image, video or audio that appears real. The AI Act requires disclosure that it is synthetic content when it may mislead.
GDPR
General Data Protection Regulation. EU law regulating how personal data is processed, applying alongside the AI Act when AI uses people’s data.
Frequently asked questions

Frequently asked questions

¿El AI Act obliga a todos los autónomos a hacer una implantación compleja?

No. Para usos normales de IA, como redactar emails, documentos, presupuestos o publicaciones, lo razonable suele ser inventariar herramientas, tener normas básicas, controlar datos personales, formar mínimamente, revisar los resultados y avisar cuando una persona interactúa con un chatbot o contenido generado por IA.

¿Qué fechas debe tener claras una pyme?

El AI Act entró en vigor el 1 de agosto de 2024. Desde el 2 de febrero de 2025 aplican definiciones, alfabetización en IA y prácticas prohibidas. El 2 de agosto de 2026 es la fecha clave para la mayoría de reglas, incluidas transparencia y sistemas de alto riesgo del Anexo III. El 2 de agosto de 2027 aplican reglas de alto riesgo integradas en determinados productos regulados.

¿Usar ChatGPT para textos suele ser alto riesgo?

Normalmente no, si la IA no decide por sí sola, una persona revisa el resultado y no se introducen datos personales o confidenciales sin control. El problema práctico suele estar más en RGPD, confidencialidad, revisión humana y seguridad que en una implantación compleja del AI Act.

¿Cuándo puede una pequeña empresa entrar en alto riesgo?

Cuando la IA participa en ámbitos sensibles como selección de personal, evaluación de trabajadores, solvencia o crédito, seguros de vida o salud, biometría, educación, servicios esenciales, justicia o decisiones importantes sobre personas. En esos casos no conviene implantar sin análisis específico.

¿ISO 27001 es obligatoria por usar IA?

No de forma general. ISO 27001 es una referencia muy útil para ordenar la seguridad de la información, pero no es una certificación obligatoria para todos por el hecho de usar IA. Puede ser recomendable o exigible si lo pide un cliente, contrato, licitación o una norma aplicable al caso concreto.

Related services

If you want to apply this to your business

Was it useful?

Share it with anyone using AI in their business.

This guide is designed so that any freelancer or SME can understand where to start.

LinkedIn X

Official sources reviewed

Initial assessment

Using AI sensibly can become a simple, documented system.

If your business already uses AI and you want to know what to organise first, I can help you review tools, data, risks, providers and evidence without oversizing the project.