ChatGPT despertó desde finales del año pasado una gran euforia hacia las posibilidades que ofrece la inteligencia artificial (IA) en la vida diaria, sin embargo también avivó los temores por las amenazas que representa para la existencia de la especie humana.
Este lunes, el investigador Geoffrey Hinton, conocido como “El padrino de la IA”, manifestó que había dejado su puesto en Google, citando preocupaciones sobre posibles amenazas en el desarrollo de la IA. Entre tanto, el CEO de Google, Sundar Pichai, habló el mes pasado sobre el problema de la “caja negra” de la IA, donde incluso sus desarrolladores no siempre entienden cómo funciona realmente la tecnología.
Las preocupaciones más comunes sobre los sistemas de IA son que pueden difundir información falsa e influir en decisiones importantes como la elección de mandatarios, permitir que las empresas acumulen datos personales de sus clientes sin su conocimiento, mostrar resultados parcializados, tomar el control sin autorización humana o reemplazar a las personas en una gran cantidad de labores.
Los temores están justificados, dice Suresh Venkatasubramanian, profesor de informática de la Universidad de Brown que investiga la equidad y el sesgo en los sistemas tecnológicos.
“Estos no son [riesgos] potenciales, porque estos daños ya se han documentado a lo largo de los años”, afirma Venkatasubramanian, quien recientemente se desempeñó como asesor de la Oficina de Política Científica y Tecnológica de la Casa Blanca y fue coautor del “Blueprint for an an AI Bill of Rights”.
“Veo que poner límites, no es solo una protección contra daños, sino una forma de construir un futuro mucho más placentero y beneficioso, que es lo que realmente todos queremos”, afirmó.
Estas son las 5 áreas de supervisión a la IA, que él y otros expertos sugieren:
- Pruebas rigurosas e independientes de productos que utilizan IA
- Protecciones contra el sesgo discriminatorio en los algoritmos
- Privacidad de datos
- Debe ser un requisito que los usuarios sean notificados cuando están usando un producto automatizado y cómo sus decisiones pueden afectarles.
- Los usuarios deben poder optar por no participar en los sistemas de IA y a cambio favorecer alternativas humanas.
Estos expertos proponen la existencia de una agencia federal similar a la Administración de Drogas y Alimentos de los Estados Unidos, que vele por el cumplimiento de la reglamentación sobre la IA.
“No digo que este sea el único modelo, pero cuando la FDA aprueba medicamentos, hace que las empresas realicen sus propias pruebas internas [y] un experto de la FDA analizará ese resultado para decidir si ese medicamento debe aprobarse o no”. dice Venkatasubramanian. “Ese es un ejemplo que ya tenemos” y lo que propone es aplicarlo a cualquier modelo de IA que salga al mercado.
“No creo que haya forma de que ningún sistema (basado en humanos o en IA) esté completamente libre de prejuicios”, afirma Venkatasubramanian. “Ese no es el objetivo. El objetivo es tener responsabilidad”.
El jueves, la Casa Blanca presentó planes para invertir en iniciativas éticas de IA y el gobierno del Reino Unido inició una investigación sobre los riesgos asociados con la tecnología de IA.
“Funcionalmente, esos son pasos de bebé, pero son necesarios y es probable que haya más avances en el futuro”, dijo Venkatasubramanian.
“El mejor de los casos no está tan lejos de donde estamos ahora”, dice. “Tenemos IA para ayudar a generar nuevas ideas que los científicos pueden explorar, para ayudar a curar enfermedades, para ayudar a mejorar el rendimiento de los cultivos, para ayudar a comprender el cosmos”, agregó.