Senadores, académicos, especialistas y representantes de la Alianza Nacional de Inteligencia Artificial, conversaron y discutieron, desde diferentes perspectivas, los ángulos que se deben tomar en cuenta en el desarrollo de la Inteligencia Artificial (IA) en México, para crear una regulación en la materia.
Al inaugurar el webinar "Ética e Inteligencia Artificial", la senadora Alejandra Lagunes Soto Ruiz, destacó que, para poder llegar a un punto ético en el manejo de la IA, se debe vislumbrar la inteligencia de las máquinas, porque ellas ya pueden valorar la inteligencia de los humanos.
“Ahí es dónde inicia a ver confusión de la ética”, porque si van a empezar a pensar como nosotros, ¿qué decisiones van a tomar en un futuro cercano?, porque como sabemos,
Dijo esta tecnología tiene más de 70 años en constante evolución; sin embargo, agregó, en los últimos meses hay un importante crecimiento exponencial de ésta, ya que existen distintas aplicaciones a los que millones de usuarios pueden acceder con facilidad.
La legisladora del Partido Verde expresó que esta tecnología puede ayudar a cerrar brechas de desigualdad o a resolver problemas en áreas como salud, educación, alimentación, cambio climático; sin embargo, sostuvo que se debe hacer un alto para incorporar la ética al desarrollo de esta tecnología.
El senador Gustavo Madero, del Grupo Plural, manifestó que estamos a tiempo de regular y encauzar a la IA, pues no se conocen completamente los impactos que puede tener en temas sociales, económicos y militares.
Reconoció que México en esta materia está en “la prehistoria”, porque no se le da prioridad a la ciencia y la tecnología en nuestro país al tratarse con una visión ideologizada. En ese sentido, señaló que, en la discusión de la Ley General en Materia de Humanidades, Ciencias, Tecnologías e Innovación se calificó a la ciencia como “la ciencia neoliberal”.
María Elena Estavillo, ex comisionada del Instituto Federal de Telecomunicaciones, explicó que habrá que observar qué principios tomarán las máquinas en las decisiones de los humanos, pues la IA aprende de la inteligencia humana y nosotros también nos equivocamos, por lo que debemos analizar es ver qué errores también se pueden pasar a las máquinas.
Jorge Enrique Linares Salgado, miembro del Sistema Nacional de Investigadores del Consejo Nacional de Humanidades, Ciencias y Tecnologías (CONAHCYT), aseveró que se debe reconsiderar a la ética como parte fundamental y racional en el manejo de la IA; “las normas éticas pueden tener un carácter no estricto, no necesariamente implican una sanción en las leyes, pero si una sanción social que tiende a auto regularse”.