Introducción a la Ley de Inteligencia Artificial de la UE
Comprendiendo la Primera Ley Integral de IA del Mundo
La Unión Europea está a la vanguardia de la regulación de la inteligencia artificial (IA) a través de su pionera Ley de Inteligencia Artificial. Esta legislación representa un hito significativo, con el objetivo de armonizar las reglas de IA entre los estados miembros y asegurar que el desarrollo de IA sea centrado en las personas, confiable y alineado con los derechos fundamentales y la seguridad.
Los Objetivos de la Ley de IA de la UE
En su esencia, la Ley de IA busca establecer un marco equilibrado que fomente la innovación y el avance tecnológico sin comprometer los estándares éticos y las protecciones individuales. Introduce regulaciones específicas para las aplicaciones de IA de alto riesgo, exige transparencia y establece estructuras de gobernanza para supervisar el despliegue de IA dentro de la UE.
La Estrategia Digital de la UE y la IA
Beneficios de Regular la IA: Desde la Salud hasta la Energía
La regulación subraya los múltiples beneficios que puede aportar el desarrollo controlado de la IA en sectores como la salud, el transporte y la energía. Al establecer pautas claras, la UE busca aprovechar la IA para el bien social, mejorando la eficiencia, la seguridad y la sostenibilidad.
El Camino hacia la Regulación: La Propuesta de la Comisión Europea
Iniciada por la Comisión Europea, la Ley de IA es parte de una estrategia digital más amplia para posicionar a la UE como líder global en la era digital. Esta propuesta describe un enfoque basado en el riesgo para la gobernanza de la IA, asegurando que los sistemas sean desarrollados y desplegados bajo estándares éticos y de seguridad rigurosos.
Lo que el Parlamento Europeo Quiere en la Legislación de IA
Asegurando la Seguridad, la Transparencia y la Amigabilidad Ambiental
El Parlamento Europeo aboga por sistemas de IA que prioricen la seguridad, la transparencia y la sostenibilidad ambiental. La legislación enfatiza la necesidad de que la IA sea comprensibles y esté bajo supervisión humana, asegurando que la tecnología sirva al interés público sin impactos adversos.
La Llamada a una Definición Uniforme de IA
Un aspecto crucial de la Ley de IA es su intento de establecer una definición uniforme y neutral en cuanto a la tecnología de IA. Esto pretende asegurar que la regulación se mantenga relevante y adaptable a los futuros avances tecnológicos, proporcionando una base sólida para la gobernanza de la IA.
Ley de IA: Clasificación de Riesgos y Establecimiento de Reglas
Navegando Diferentes Niveles de Riesgo: Desde Inaceptable hasta Mínimo Riesgo
La Ley de IA introduce un nuevo sistema de clasificación para las aplicaciones de IA según el nivel de riesgo que presentan. Este marco está diseñado para aplicar un nivel de escrutinio regulatorio proporcional, desde sistemas de IA de riesgo mínimo hasta alto, asegurando que las aplicaciones de riesgo más alto se sometan a una evaluación rigurosa. A continuación, se presenta un resumen de los niveles de riesgo, sus requisitos regulatorios y criterios de clasificación con ejemplos:
- Riesgo Inaceptable – Prohibiciones Totales – Art.5
- Nivel más alto, sistemas con claras violaciones de derechos fundamentales.
- Ej. monitoreo en tiempo real por fuerzas del orden, puntuación social
- Alto Riesgo – Regulación Integral – Art.6
- Sistemas que pueden causar daños significativos (salud, seguridad, derechos fundamentales) en caso de fallo o mal uso
- Ej. IA en reclutamiento/ recursos humanos o en la aplicación de la ley
- Riesgo Limitado – Obligaciones de Transparencia – Art.52
- Sistemas con riesgo de manipulación o engaño, en áreas no críticas
- Ej. chatbots en servicio al cliente, sistemas de reconocimiento de emociones
- Los usuarios deben estar informados sobre cualquier interacción con la IA
- Riesgo Mínimo – Códigos de Conducta – Art.69
- Sistemas con bajo o menor riesgo de causar daños
- Ej. filtro de spam, clasificación de contenido
- Sin restricciones adicionales de despliegue
Prohibiciones Específicas: Sistemas de IA de Riesgo Inaceptable
La regulación identifica ciertas prácticas de IA como riesgos inaceptables, prohibiéndolas. Estas incluyen la identificación biométrica en tiempo real en espacios públicos y IA manipulativa que explota vulnerabilidades individuales, reflejando el compromiso de la UE de salvaguardar los derechos y la seguridad de los ciudadanos. En resumen, las siguientes prácticas están prohibidas:
- Técnicas Subliminales: Colocar en el mercado, poner en servicio o utilizar sistemas de IA que implementen técnicas subliminales más allá de la conciencia de una persona o técnicas manipulativas o engañosas intencionales que distorsionen materialmente el comportamiento de una persona, causando daños significativos.
- Explotación de Vulnerabilidades: Aprovechar cualquier vulnerabilidad de una persona o un grupo específico debido a su edad, discapacidad, o una situación social o económica específica de manera que distorsione materialmente su comportamiento y cause o es probable que cause daños significativos.
- Puntuación Social: Utilizar sistemas de IA para la evaluación o clasificación de personas naturales o grupos basados en su comportamiento social o características personales, llevando a un tratamiento perjudicial o desfavorable, especialmente si resulta en resultados injustificados o desproporcionados.
- Identificación Biométrica Remota en Tiempo Real: El uso de sistemas de identificación biométrica remota "en tiempo real" en espacios públicos con el propósito de aplicación de la ley, excepto en situaciones definidas de manera muy restrictiva donde sea estrictamente necesario para lograr un interés público significativo.
- Evaluaciones de Riesgo Basadas en Perfiles: Realizar evaluaciones de riesgo de personas naturales para evaluar o predecir el riesgo de que cometan un delito, basándose únicamente en perfilas o evaluando sus rasgos y características de personalidad.
- Recolección de Imágenes Faciales no Dirigida: Crear o ampliar bases de datos de reconocimiento facial mediante la recopilación no dirigida de imágenes faciales de internet o grabaciones de CCTV.
- Reconocimiento de Emociones en Áreas Sensibles: Inferir o detectar emociones o intenciones de personas naturales basándose en sus datos biométricos con propósitos como empleo, educación o seguridad pública, excepto en casos donde esté destinado a razones médicas o de seguridad.
Sistemas de IA de Alto Riesgo Explicados
Categorías de Aplicaciones de IA de Alto Riesgo
Los sistemas de IA de alto riesgo se definen dentro de la regulación para incluir aplicaciones que impactan sectores críticos como la salud, el transporte y los servicios públicos. Estos sistemas están sujetos a requisitos estrictos, incluyendo gobernanza de datos, documentación técnica y transparencia, para mitigar riesgos y asegurar responsabilidad.
Obligaciones y Evaluaciones para Sistemas de Alto Riesgo
La Ley impone obligaciones integrales para los sistemas de IA de alto riesgo, centrándose en aspectos como la supervisión humana, precisión y ciberseguridad. Estos requisitos tienen como objetivo garantizar que las aplicaciones de IA de alto riesgo sean seguras, confiables y estén alineadas con los valores y estándares de la UE. En resumen, aquí están los requisitos establecidos para sistemas de alto riesgo:
- Sistema de Gestión de Riesgos: Establecer un proceso continuo e iterativo para identificar y mitigar riesgos para la salud, la seguridad y los derechos fundamentales asociados con el sistema de IA a lo largo de su ciclo de vida.
- Calidad y Relevancia de los Conjuntos de Datos: Asegurar que los conjuntos de datos utilizados para el entrenamiento, validación y prueba sean de alta calidad, relevantes, suficientemente representativos y lo más libres de errores posible, considerando el propósito previsto del sistema de IA.
- Documentación Técnica: Mantener documentación técnica actualizada que proporcione información necesaria para evaluar el cumplimiento con la regulación y facilite el monitoreo posterior al mercado.
- Registro: Asegurar que el sistema de IA pueda generar automáticamente registros (eventos) durante su vida operativa, los cuales deben ser conservados por un período adecuado según el propósito del sistema.
- Transparencia y Provisión de Información: Diseñar sistemas de IA de alto riesgo para que sean suficientemente transparentes para que los responsables de su implementación puedan comprender su funcionamiento, y proporcionar instrucciones claras y completas para su uso.
- Supervisión Humana: Implementar medidas de supervisión humana apropiadas para asegurar que el funcionamiento del sistema de IA pueda ser supervisado efectivamente por personas naturales durante su uso.
- Precisión, Robustez y Ciberseguridad: Asegurar que los sistemas de IA de alto riesgo logren un nivel adecuado de precisión, robustez y ciberseguridad y se desempeñen consistentemente en estos aspectos a lo largo de su ciclo de vida.
- Evaluación de Conformidad: Someterse al procedimiento de evaluación de conformidad relevante antes de colocar el sistema de IA en el mercado o ponerlo en servicio.
- Marcado CE: Colocar el marcado CE en el sistema de IA para indicar conformidad con la regulación.
- Cumplimiento de Requisitos de Accesibilidad: Cumplir con los requisitos de accesibilidad para productos y servicios y la accesibilidad de los sitios web y aplicaciones móviles de los organismos del sector público.
Requisitos de Transparencia para Sistemas de IA
IA Generativa y la Necesidad de Transparencia
Los sistemas de IA generativa, aunque no se clasifican como de alto riesgo, deben cumplir con obligaciones de transparencia. Esto incluye la necesidad de revelar cuando el contenido es generado por IA, permitiendo así a los usuarios tomar decisiones informadas y mantener la confianza en el contenido digital.
Etiquetado de Contenido Generado por IA
La Ley de IA enfatiza la importancia de etiquetar claramente el contenido generado por IA, como los deepfakes o medios sintéticos. Esta medida tiene como objetivo asegurar la conciencia del usuario y prevenir la desinformación, fomentando un entorno digital donde los usuarios puedan discernir entre contenido generado por IA y contenido auténtico.
Requisitos de Transparencia Detallados
- Interacción con Personas Naturales: Los proveedores deben asegurar que los sistemas de IA diseñados para interactuar directamente con personas naturales informen claramente a los usuarios que están interactuando con un sistema de IA, a menos que sea obvio por el contexto y el nivel de conocimiento del usuario.
- Generación de Contenido Sintético: Los proveedores de sistemas de IA que generan contenido sintético (audio, imágenes, video o texto) deben marcar las salidas en un formato legible por máquina y asegurar que el contenido sea detectable como generado o manipulado artificialmente. Las soluciones técnicas implementadas deben ser efectivas, interoperables, robustas y confiables en la medida de lo técnicamente factible.
- Sistemas de Reconocimiento de Emociones y Categorización Biométrica: Los responsables de sistemas utilizados para el reconocimiento de emociones o categorización biométrica deben informar a los individuos sobre el funcionamiento de estos sistemas y procesar datos personales de acuerdo con las regulaciones de protección de datos relevantes.
- Deepfakes (Contenido Manipulado): Los responsables de sistemas de IA que generan o manipulan contenido que podría considerarse "deepfakes" deben revelar que el contenido ha sido creado o manipulado artificialmente. Esto no se aplica si el contenido es parte de una obra creativa, satírica, artística o de ficción, o si el contenido generado por IA ha sido revisado o controlado por humanos.
- Generación de Texto de Interés Público: Los responsables de sistemas de IA que generan texto con el propósito de informar al público sobre asuntos de interés público deben revelar que el texto ha sido generado o manipulado artificialmente, a menos que haya revisión o control editorial humano y responsabilidad editorial por el contenido.
- Información Clara y Distinguible: La información proporcionada a las personas naturales debe presentarse de manera clara y distinguible, respetando los requisitos de accesibilidad.
- Registro de Sistemas de IA de Alto Riesgo: Los proveedores y responsables de sistemas de IA de alto riesgo deben registrarse a sí mismos y a sus sistemas en una base de datos de la UE antes de colocar el sistema en el mercado o ponerlo en servicio.
Gobernanza y Aplicación
Un aspecto fundamental de la regulación es el establecimiento de una estructura de gobernanza centrada en la Oficina de IA, que desempeña un papel crucial en el apoyo a la implementación y aplicación de la Ley. Se creará una base de datos de la UE para sistemas de IA de alto riesgo para facilitar la supervisión y el cumplimiento. La regulación también delinea los roles de las autoridades competentes nacionales, las autoridades de vigilancia del mercado y el Supervisor Europeo de Protección de Datos, garantizando un enfoque coordinado para la gobernanza de la IA. Aquí hay un resumen de la gobernanza de la aplicación de la Ley de IA de la UE:
- Oficina de IA: Establecimiento de la Oficina de IA para contribuir a la implementación, monitoreo y supervisión de sistemas de IA, modelos de IA de propósito general y gobernanza de la IA. La Oficina de IA es responsable de coordinar el apoyo para investigaciones conjuntas, proporcionar orientación sobre la implementación de la regulación y garantizar que las reglas y procedimientos de clasificación estén actualizados.
- Junta Europea de Inteligencia Artificial: Creación de una junta compuesta por representantes de los Estados Miembros, un panel científico para apoyo técnico y un foro consultivo para la participación de las partes interesadas. La Junta está encargada de asesorar y asistir a la Comisión y a los Estados Miembros en la aplicación de la regulación, emitiendo opiniones y recomendaciones, y facilitando el desarrollo de criterios comunes y entendimiento entre los operadores del mercado.
- Autoridades Competentes Nacionales: Cada Estado Miembro debe designar al menos una autoridad notificadora y una autoridad de vigilancia del mercado para supervisar la aplicación y la aplicación de la regulación a nivel nacional. Estas autoridades son responsables de asegurar que los sistemas de IA cumplan con los requisitos de la regulación y de tomar medidas adecuadas en caso de incumplimiento.
- Vigilancia del Mercado: Las autoridades de vigilancia del mercado están encargadas de monitorear el mercado de sistemas de IA, tomar medidas para asegurar el cumplimiento y proponer actividades conjuntas, incluyendo investigaciones, para abordar el incumplimiento o riesgos graves entre Estados Miembros.
- Evaluación de Cumplimiento: La Oficina de IA, en colaboración con las autoridades competentes nacionales, es responsable de evaluar el cumplimiento con la regulación, incluyendo a través de la evaluación de la documentación técnica y el monitoreo del rendimiento de los sistemas de IA.
- Informes y Documentación: Los proveedores de sistemas de IA de alto riesgo están obligados a presentar informes y mantener documentación relacionada con sus sistemas, la cual puede ser sometida a revisión por la Oficina de IA y las autoridades competentes nacionales.
- Estructuras de Apoyo: La Comisión está encargada de designar estructuras de soporte para pruebas de IA en la UE para proporcionar asesoramiento técnico o científico y asistencia en la aplicación de la regulación.
- Confidencialidad y Protección de Datos: Todas las partes involucradas en la aplicación de la regulación deben respetar la confidencialidad de la información obtenida en el curso de sus funciones, protegiendo los derechos de propiedad intelectual, datos personales y asegurando la seguridad de los sistemas de IA.
- Evaluaciones y Revisiones Periódicas: La Comisión está obligada a evaluar y revisar la regulación periódicamente, teniendo en cuenta los desarrollos tecnológicos, el estado del mercado interno y la protección de los derechos fundamentales.
Penalizaciones y Multas
La regulación prevé la imposición de penalizaciones y multas por incumplimiento de sus disposiciones, incluyendo multas administrativas basadas en la facturación total anual mundial de la entidad infractora o una cantidad fija, dependiendo de la naturaleza y gravedad del incumplimiento.
- Para las infracciones de la prohibición de ciertas prácticas de IA mencionadas en el Artículo 5, la multa administrativa puede ser de hasta 35,000,000 € o el 7% de la facturación total anual mundial del año financiero anterior, lo que sea mayor.
- Por incumplimiento de otras disposiciones relacionadas con operadores o entidades notificadoras, las multas administrativas pueden ser de hasta 15,000,000 € o el 3% de la facturación total anual mundial del año financiero anterior, lo que sea mayor.
- Por proporcionar información incorrecta, incompleta o engañosa a las entidades notificadoras y autoridades competentes nacionales, las multas administrativas pueden alcanzar hasta 7,500,000 € o el 1% de la facturación total anual mundial del año financiero anterior, lo que sea mayor.
- Para las pequeñas y medianas empresas (PYMEs), incluidas las nuevas empresas, las multas mencionadas anteriormente se reducirán al menor de los dos porcentajes o cantidades mencionadas, teniendo en cuenta su viabilidad económica.
Apoyo a la Innovación y las PYMEs
Proporcionando un Entorno de Pruebas para el Desarrollo de IA
Para promover la innovación y apoyar a las pequeñas y medianas empresas (PYMEs), la Ley de IA exige a las autoridades nacionales ofrecer entornos de prueba para el desarrollo de IA. Esta iniciativa está diseñada para simular condiciones del mundo real, permitiendo a las nuevas empresas y PYMEs perfeccionar y probar modelos de IA antes de su lanzamiento público, asegurando que las tecnologías emergentes puedan prosperar dentro de un marco regulado.
La Ley de IA: Disposiciones Clave y Próximos Pasos
Cronograma para la Implementación y Aplicabilidad
La cronología del desarrollo e implementación de la Ley de IA de la UE está marcada por hitos significativos:
- Abril de 2021: La Comisión Europea publicó una propuesta para regular la inteligencia artificial en la UE, marcando el inicio de la Ley de IA de la UE.
- A lo largo de 2022: El año vio numerosos desarrollos, incluida la adopción de una posición común por parte del Consejo de la UE en diciembre, propuestas para armonizar las reglas nacionales de responsabilidad para la IA, y la circulación de varios textos de compromiso y enmiendas.
- 2023: Eventos clave incluyeron la adopción por parte del Parlamento Europeo de su posición de negociación sobre la Ley de IA en junio y el alcance de un acuerdo provisional con el Consejo en diciembre.
- 2024: La línea de tiempo incluye la aprobación unánime de la Ley de IA por los 27 Estados miembros de la UE y la aprobación del resultado de las negociaciones de la Ley de IA por parte de los Comités de Mercado Interno y Libertades Civiles en febrero. Además, se lanzó la Oficina Europea de Inteligencia Artificial en febrero para apoyar la implementación de la Ley de IA, especialmente en lo que respecta a la IA de propósito general. El 13 de marzo de 2024, el Parlamento Europeo votó a favor de la Ley de Inteligencia Artificial de la Unión Europea.
La Ley entra en vigencia después de 24 meses con respecto a la mayoría de las partes de la regulación. Sin embargo, se aplican plazos más cortos a la IA prohibida (6 meses) y plazos más largos a los sistemas de IA ya regulados por la ley de la UE (36 meses).
La Ley de IA de la UE establece una cronología integral para su implementación, incluyendo la aplicabilidad inmediata de los Títulos I (DISPOSICIONES GENERALES) y II (PRÁCTICAS DE INTELIGENCIA ARTIFICIAL PROHIBIDAS) después de seis meses, preparación de códigos de prácticas dentro de nueve meses y la disposición operativa de al menos un entorno regulador en cada Estado miembro para el plazo de 24 meses. También se detallan los requisitos de cumplimiento para sistemas de IA de alto riesgo y componentes usados en sistemas informáticos a gran escala en el ámbito de libertad, seguridad y justicia para fines de 2030.
Análisis Comparativo con Otras Medidas Digitales
La Ley de IA no existe en aislamiento, sino que forma parte de un conjunto más amplio de iniciativas de la UE dirigidas a regular el espacio digital. Esta legislación está diseñada para complementar las medidas existentes, como el Reglamento General de Protección de Datos (RGPD), al abordar los desafíos únicos que presentan las tecnologías de IA y asegurar un marco regulatorio cohesivo.
Orientación Práctica para el Cumplimiento
Pasos para Proveedores y Usuarios de Sistemas de IA
Para los proveedores y usuarios de sistemas de IA, la regulación establece pasos claros para lograr el cumplimiento, desde realizar evaluaciones de riesgo hasta diseñar sistemas con consideraciones éticas en mente. Estas pautas son cruciales para que las entidades naveguen los requisitos regulatorios y adopten prácticas de IA responsables en sus operaciones.
Diseño de Sistemas de Gestión de Riesgos y Calidad para IA de Alto Riesgo
Para los sistemas de IA de alto riesgo, la regulación exige el establecimiento de sistemas robustos de gestión de riesgos y calidad. Estos sistemas son esenciales para asegurar que las aplicaciones de IA se desarrollen y desplieguen de una manera que minimice los riesgos y mantenga los más altos estándares de seguridad y fiabilidad.
Impacto en Varios Sectores
Estudios de Caso de Salud, Manufactura y Servicios Financieros
Se espera que la Ley de IA tenga un impacto significativo en múltiples sectores, con la salud, la manufactura y los servicios financieros listos para experimentar transformaciones profundas. Al asegurar que los sistemas de IA en estos sectores se desarrollen y utilicen de manera responsable, la Ley busca mejorar la eficiencia, la innovación y la confianza.
El Papel de la IA en la Legislación Futura de la UE
El Paisaje Evolutivo de la Regulación de la IA
A medida que las tecnologías de IA continúan evolucionando, también lo hará el paisaje regulatorio. La Ley de IA representa un paso crítico en esta evolución, estableciendo una base para la futura legislación. Refleja el enfoque proactivo de la UE para dar forma a un futuro donde las tecnologías de IA se utilicen de manera responsable y ética.
Preparándose para la Ley de IA: Una Lista de Verificación
Desde la Evaluación de Riesgo hasta el Diseño Ético
Las entidades involucradas en el desarrollo y despliegue de sistemas de IA deben llevar a cabo evaluaciones de riesgo exhaustivas e integrar consideraciones éticas en sus procesos de diseño. Esta lista de verificación sirve como una hoja de ruta para alinear las prácticas de IA con los requisitos de la Ley, fomentando una cultura de responsabilidad e innovación.
Comprendiendo las Consecuencias Financieras y Legales
La Ley de IA impone sanciones significativas por incumplimiento, resaltando la importancia de adherirse a sus disposiciones. Estas penalizaciones están diseñadas para asegurar que las entidades tomen en serio sus obligaciones, contribuyendo a un ecosistema de IA más seguro y confiable.
Conclusión: Adoptando la IA con Responsabilidad
La Ley de IA de la UE es una legislación histórica que establece un estándar global para la regulación de la inteligencia artificial. Al priorizar la supervisión humana, la transparencia y la robustez, la Ley busca asegurar que las tecnologías de IA sean desarrolladas y utilizadas de manera que beneficien a la sociedad mientras se protegen los derechos y la seguridad individuales. A medida que nos acercamos a una nueva era en la regulación de la IA, la Ley ofrece un modelo para equilibrar la innovación con consideraciones éticas, presagiando un futuro donde la IA sirva al bien común bajo un marco de confianza y responsabilidad.
Preguntas Frecuentes
P1: ¿Qué constituye un sistema de IA de alto riesgo según la Ley de IA de la UE?
R1: Los sistemas de IA de alto riesgo son aquellos que presentan riesgos significativos para la seguridad, los derechos y libertades del público. Ejemplos incluyen aplicaciones de IA en infraestructuras críticas, educación, empleo y aplicación de la ley. Estos sistemas están sujetos a estrictos requisitos regulatorios, incluyendo transparencia, precisión y gobernanza de datos.
P2: ¿Cómo afecta la Ley de IA a las pequeñas y medianas empresas (PYMEs)?
R2: La Ley de IA reconoce la importancia de la innovación y proporciona apoyo a las PYMEs a través del establecimiento de entornos de prueba para el desarrollo de IA. Busca equilibrar los requisitos regulatorios con la necesidad de fomentar la innovación, asegurando que las PYMEs puedan competir e innovar en el espacio de IA.
P3: ¿Pueden los sistemas de IA seguir utilizando identificación biométrica según la Ley de IA?
R3: La Ley de IA prohíbe la identificación biométrica remota en tiempo real en espacios públicos con fines de aplicación de la ley, excepto en condiciones específicas y estrictas. Sin embargo, otras aplicaciones de identificación biométrica pueden ser permisibles, siempre que cumplan con las disposiciones de la Ley y respeten los derechos fundamentales y la privacidad.
P4: ¿Qué papel juega la transparencia en la Ley de IA?
R4: La transparencia es un pilar fundamental de la Ley de IA, requiriendo a los proveedores revelar cuándo el contenido o las decisiones son generadas por IA. Esta transparencia tiene como objetivo empoderar a los usuarios, permitiendo la toma de decisiones informadas y fomentando la confianza en las tecnologías de IA.
P5: ¿Cómo se aplicará la Ley de IA en los Estados miembros de la UE?
R5: La Ley de IA establece una estructura de gobernanza, incluida la Oficina de IA y las autoridades competentes nacionales, para supervisar su implementación y aplicación. Las sanciones por incumplimiento incluyen multas sustanciales, asegurando que las entidades tomen en serio sus obligaciones regulatorias.