Por Raúl Parra 

(dpl nwes) En el primer aniversario de ChatGPT, DPL News presenta un análisis de los principales documentos que han elaborado países, grupos y organismos internacionales para garantizar un despliegue seguro y responsable de la Inteligencia Artificial.

El 30 de noviembre de 2022, OpenAI lanzó ChatGPT, el gran modelo de lenguaje (LLM, por sus siglas en inglés) que detonó la mayor masificación de la Inteligencia Artificial en la historia humana.

Un año después, en la bisagra de octubre a noviembre de 2023, diversos países y grupos, que incluyen a las principales potencias mundiales, y organismos internacionales y multilaterales comenzaron a publicar sus propias ‘órdenes’, ‘códigos’ o ‘declaraciones’ sobre seguridad de la IA para garantizar un ‘desarrollo confiable y seguro’ de la tecnología más disruptiva de las últimas décadas.

Abordar los riesgos de la IA

EE.UU: conciliar la ‘regulación’ con la competencia

En medio de la guerra comercial y tecnológica que, en el siglo XXI, libra con China —y no ya con la Unión Soviética, como en la segunda mitad del siglo XX—, fiel a su vocación de pionero tecnológico, Estados Unidos también quiso ser el primero en emitir un documento con lineamientos para una ‘Inteligencia Artificial segura y confiable’.

El 30 de octubre, Joe Biden, un presidente que se ha caracterizado por enarbolar una agenda ‘anti-Big Tech’, firmó una orden ejecutiva con la intención de que el país norteamericano ‘lidere el camino en la gestión de los riesgos de la IA’.

La orden ejecutiva resume el estado del arte sobre la protección ante la IA y, según la Casa Blanca, “las acciones más radicales jamás tomadas para proteger a los estadounidenses de los riesgos potenciales de los sistemas de IA”, entre las que se encuentran estándares de seguridad y protección de la privacidad, promoción de la equidad y los derechos civiles, defensa de los consumidores y de los trabajadores, así como la promoción de la innovación y la competencia.

Así que no ofrece mayores diferencias respecto a los otros documentos excepto la exigencia de que los desarrolladores de los sistemas más poderosos de Inteligencia Artificial, como OpenAI, Google y Anthropic, compartan los resultados de sus pruebas de seguridad con el gobierno federal y desarrollen estándares y herramientas para ayudar a garantizar que sean seguros y confiables.

G7: ‘código’ para mitigar riesgos de la IA

También a fines de octubre, el mismo día que Biden, el Grupo de los Siete (G7) publicó su propio Código Internacional de Conducta que proveerá ‘orientación voluntaria de acciones’ a las Organizaciones que Desarrollan Sistemas Avanzados de IA, el cual, a partir de un enfoque basado en riesgos, busca “promover una Inteligencia Artificial segura y confiable en todo el mundo”.

Resulta curioso, si no profético, que el código forme parte del denominado ‘Proceso de Hiroshima’, tomando en cuenta que, en mayo, a través de un posicionamiento público, destacadas figuras y mayores expertos de IA, incluidos Bill Gates y Steve Wozniak, Sam Altman, Ilya Sutskever y los hermanos Amodei, aseguraron que ‘mitigar el riesgo de extinción ocasionado por la IA debería ser una prioridad global junto con otros riesgos de escala societaria, como las pandemias o una guerra nuclear’.

El código del G7 enlista un decálogo de acciones que “las organizaciones deben aplicar a todas las etapas del ciclo de vida para cubrir, cuando sea aplicable, el diseño, desarrollo, despliegue y uso de sistemas avanzados de IA”, entre las que se encuentran evaluar y mitigar los riesgos; identificar y mitigar las vulnerabilidades e incidentes, así como informar públicamente de las capacidades, limitaciones y dominios de su uso tanto apropiado como inapropiado.

Finalmente, establece que las organizaciones deben implementar mecanismos de monitoreo efectivos a lo largo de todo el ciclo de vida de la IA.

Acuerdo de Bletchley: ¿los enemigos se ponen de acuerdo?

También en la bisagra de octubre a noviembre, el Reino Unido logró lo que parecía imposible: que Estados Unidos y China, los dos países líderes que actualmente se disputan la hegemonía global de la Inteligencia Artificial, llegaran a un acuerdo para su desarrollo seguro.

En Bletchley Park, Buckinghamshire, organizó la Cumbre de Seguridad de la IA, que dio como resultado la declaración del mítico lugar —una instalación militar donde se descifraron códigos alemanes durante la Segunda Guerra Mundial—, que asienta que “la Inteligencia Artificial debe ser diseñada, desarrollada, desplegada y usada de manera segura, de forma que esté centrada en el ser humano y sea confiable y responsable”.

La declaración, firmada por otros 25 países, afirma la necesidad de que la IA se utilice de manera inclusiva ‘para bien y para todos’ a nivel mundial. Enfatiza que es necesario abordar la protección de los derechos humanos y muestra una preocupación especial por los riesgos en los ámbitos de la ciberseguridad, la biotecnología y la comunicación con la desinformación, así como la ética, la privacidad y la protección de datos.

Los 28 países firmantes señalan que la mejor manera de abordar los riesgos es a través de la cooperación internacional y establecieron el compromiso de identificar los riesgos de seguridad de interés compartido y construir las políticas respectivas para garantizar la seguridad, lo cual impulsarán a través de una red internacional de investigación científica liderada por el Reino Unido y Estados Unidos.

La otra cuestión: la ética de la IA

Declaración de Santiago: una proclama desde el Sur Global

No obstante, cronológicamente, ni la orden ejecutiva de EE. UU., ni el código del G7, ni el Acuerdo de Bletchley fueron los primeros documentos publicados a finales de octubre: la primera proclama vino desde el Sur Global.

Una semana antes que Biden firmara su orden ejecutiva, el 23 y 24 de octubre, representantes de 25 países se reunieron en Chile para participar en el Foro sobre la Ética de la Inteligencia Artificial en América Latina y el Caribe. La Declaración de Santiago fue el fruto de esta cumbre ministerial y de altas autoridades y presenta diversas peculiaridades respecto a las anteriores:

En primer lugar, cabe asentar que, como su propio nombre lo revela, la cumbre y la declaración tienen otro enfoque: el de la ética y, específicamente, el marco normativo propuesto por la Unesco; la Declaración se acoge a su Recomendación sobre la Ética de la Inteligencia Artificial.

Los firmantes se declaran conscientes de que “la IA puede reforzar la discriminación, exclusión y sesgos, incluyendo las desigualdades estructurales”, por lo que aseguran que la Recomendación es el marco adecuado para ‘corregir los impactos negativos de la IA sobre las personas y la sociedad’ y maximizar sus beneficios, “respetando y representando diferencias culturales, geográficas, económicas, ideológicas, religiosas y no reforzar estereotipos o profundizar la desigualdad”.

Y advierten que “los países en desarrollo han estado ausentes o no bien representados […] en las instancias de coordinación, colaboración y gobernanza tecnológica global”, por lo que “resulta fundamental el fortalecimiento de capacidades, el empoderamiento de todas las personas de América Latina y el Caribe sobre los elementos fundamentales de la IA”.

Por ello, la cumbre y la declaración culminan con el establecimiento de un Grupo de Trabajo que se encargará de constituir un Consejo intergubernamental de IA en América Latina y el Caribe para fortalecer las capacidades regionales en la materia.

Como conclusión, cabe señalar que, pese a la prolijidad de sus redacciones, este aluvión de documentos parece más una declaración de promesas y buenas intenciones que un compromiso real de los países para abordar los desafíos urgentes que la Inteligencia Artificial plantea en el mundo contemporáneo: su mayor problema es que la mayoría no son vinculantes y, por lo tanto, son recomendaciones cuya adopción está a la merced de la buena voluntad de los grandes jugadores globales, tanto estatales, como no estatales, por lo que nada garantiza su implementación efectiva.

Por último, tal como lo demostró la reciente caída en desgracia de Sam Altman, el cofundador de OpenAI, la empresa de Inteligencia Artificial más disruptiva de la última década, y su posterior restitución como director Ejecutivo de la compañía: el panorama es incierto, cambia a minuto a minuto y nadie está dispuesto a ceder ni un segundo.