Por Efrén Páez Jiménez

(dpl news) Filadelfia, Estados Unidos.- Conforme la Inteligencia Artificial (IA) se integra rápidamente en múltiples productos y soluciones para acelerar la productividad, AWS (Amazon Web Services) busca asegurarse de que esta tecnología pueda ser utilizada con responsabilidad, mediante una estrategia que atienda sus principales riesgos, desde la introducción de sesgos en el modelo, hasta potenciales usos malintencionados.

En el evento AWS re:Inforce 2024, en Filadelfia, Diya Wynn, líder para IA responsable, detalló la estrategia de Amazon para atender los riesgos de la nueva tecnología en cuatro puntos: enfoque centrado en la gente, integrar la responsabilidad de IA en todo el ciclo de desarrollo para asegurarnos que todos participen, ayudar a los clientes a adoptar las mejoras prácticas y operacionalizarlas, y apoyar el avance de la ciencia de IA responsable.

Esta estrategia busca atender los principales riesgos identificados alrededor del uso de la IA, tales como mantener la fidelidad de la información, la posible generación de toxicidad y el respeto del uso de propiedad intelectual, así como su impacto en general. Aunque consideró que aún existen riesgos no contemplados por el momento que podrían surgir conforme avanza la tecnología, y la IA se involucra más en la toma de decisiones.

Al establecer una estrategia para atender los riesgos de IA, las empresas podrían también atender posibles riesgos para su propio negocio, como daño reputacional, baja de confianza del cliente, pérdida de ingresos, infracciones regulatorias y consecuencias criminales.

“Ejecutar responsablemente la IA es bueno para el negocio porque le ayudará a mitigar los riesgos”, añadió.

La directiva consideró que en el caso de AWS, y de cualquier otra compañía, el aspecto clave es que exista un compromiso del liderazgo, de modo que se pueda ejecutar desde arriba hacia todas las áreas del negocio.

Parte de esta estrategia de AWS incluye la capacitación continua de sus colaboradores, así como brindar herramientas de educación que permitan entender a las personas el impacto de la IA. Se refirió al programa de educación en Nube de AWS para preparar a 29 millones de personas, que incluiría capacidades en IA.

Regulación de IA

Respecto a la posible regulación sobre IA, Wynn se mostró positiva a una reglamentación que permita innovar, implementar medidas de seguridad y así servir mejor a sus clientes. Sin embargo, alertó que el enfoque actual en que comienzan a surgir múltiples leyes estatales podría dificultar el cumplimiento de la ley para las compañías más pequeñas o las startups.

Apuntó que hay segmentos donde se requiere la ley y el rol del gobierno para dar estructura y definiciones sobre aquello que es ilegal. Sin embargo, también consideró que estas no deben ser restrictivas al punto de limitar oportunidades, por ejemplo, el uso de IA para generar imágenes que puede tener múltiples casos de uso positivos, aunque también pueda tener un impacto negativo.

Al respecto, se pueden implementar otras medidas, como limitar ciertos casos de uso específicos, por ejemplo, el usar la imagen de personalidades; o algunas tecnológicas, como impulsar la integración de marcas de agua que permitan identificar que una imagen se generó por IA.

Celebró los esfuerzos de la industria para establecer estándares y medidas que permitan un uso adecuado de la IA, por lo que no están simplemente esperando la emisión de una ley para asumir su responsabilidad en el desarrollo de esta tecnología.

IA Constitucional

Durante el evento también estuvo presente la compañía de IA Anthropic, fundada por antiguos empleados de OpenAI, que enfocaron la empresa en impulsar la integración de medidas de seguridad en modelos de IA ante los riesgos sociales y geopolíticos de la tecnología. Sobre esto, Larkin Ryder, directora de cumplimiento normativo, dijo que la compañía trabaja en hacer los modelos seguros al entender cómo trabajan y cómo razonan, para dirigirlos y alinearlos con los valores humanos.

Por ejemplo, los modelos han sido entrenados en ética, así como con datos de la Declaración Universal de los Derechos Humanos de la Organización de las Naciones Unidas (ONU), para mitigar el uso indebido de los modelos.

Anthropic introdujo el concepto de IA Constitucional, un sistema basado en principios para juzgar los resultados de la IA. Esta constitución guía al modelo para que adopte el comportamiento normativo, por ejemplo, ayudar a evitar resultados tóxicos o discriminatorios, evitar ayudar a un humano a participar en actividades ilegales o poco éticas y, en general, crear un sistema de IA que sea útil, honesto e inofensivo.

La principal ventaja de este modelo es que permite generar escala para la evaluación de modelos de IA cada vez más grandes, reduciendo la participación de humanos en el proceso y acelerando su desarrollo.

Mejores prácticas

Entre las mejores prácticas recomendadas por la compañía se incluyen: la controlabilidad, que guíe y controle los resultados de la IA, con mecanismos para monitorear y dirigir su comportamiento; privacidad y seguridad para proteger, usar, obtener de forma responsable datos y modelos; protección para evitar que la IA Generativa pueda crear resultados peligrosos o tóxicos; equidad, que considere impactos en diferentes grupos y personas de interés.

También recomienda incluir veracidad y robustez, por ejemplo, contar con una verificación humana antes de ser publicado; considerar técnicas de explicabilidad para entender y evaluar resultados; con transparencia, para permitir que el usuario sea consciente de los límites de la tecnología; y gobernanza, con guías claras y marcos para el desarrollo responsable y uso de los sistemas de IA, incluyendo estándares industriales, regulación y códigos.