Autor: Daniel Montalva Decano Facultad de Derecho Universidad de Las Américas
Columnas de Opinión: Mythos como síntoma de falta de gobernanza de IA
Columnas de Opinión: Mythos como síntoma de falta de gobernanza de IA Durante las últimas semanas, el modelo de inteligencia artificial Mythos ha sido la principal noticia tecnológica.
Esto, debido a que según la compañía Anthropic, esta herramienta sería capaz de superar a los humanos en ciertas tareas de piratería informática y ciberseguridad, y aunque la empresa haya restringido su acceso bajo el proyecto Glasswing, se comenta que ya habría sido objeto de usos no autorizados. Lo relevante de este caso es que la restricción de acceso no se debe a posibles errores que pueda tener esta herramienta, sino que al daño que puede ocasionar. Lo anterior ha llevado a diversos gobiernos y grandes empresas a analizar los riesgos ante un modelo que podría realizar ataques complejos y explotar fallas de sistemas.
Frente a este caso es que cabe preguntarnos: ¿ quién decide hasta donde las empresas pueden explorar nuevas tecnologías y las medidas de seguridad que deben implementar? ¿ quién deben calificar el riesgo de la IA para circular libremente? ¿ Es posible regular situaciones como ésta que serán cada vez más comunes? Lo que ha hecho Anthropic no es otra cosa que autoregularse. Si bien la autorregulación tiene la ventaja de la velocidad y la flexibilidad, adolece de la legitimidad democrática, de reglas comunes y control público.
Esto es incluso más revelador en el conflicto de esta empresa y el gobierno de Estados Unidos, en el que tras meses de negociación el Pentágono impuso a la empresa la designación de "riesgo para cadena de suministros", debido a que se negó a permitirle a EE.UU. el uso de sus herramientas en armas autónomas sin supervisión humana y para vigilancia doméstica.
Mientras el Pentágono señalaba que la defensa del país no podía quedar condicionado a políticas internas de la empresa, esta respondió que los modelos actuales no son lo suficientemente confiables para armamento completamente autónomo, e incluso más, declaró que la vigilancia de norteamericanos era contraria a derechos fundamentales. De esta manera vemos como las grandes compañías no solo están acumulando poder económico e informativo, sino que también, debido al vertiginoso avance de las tecnologías, poder normativo. Ante la inexistencia de leyes y retrasos legislativos, fijan estándares sobre lo permitido y lo prohibido.
El problema no es si Anthropic actúa correctamente o no al regular el acceso de esta nueva tecnología, o si el gobierno de Estados Unidos debiera tener carta blanca para usar la IA como más le plazca, especialmente en el contexto internacional actual. Autor: Daniel Montalva Decano Facultad de Derecho Universidad de Las Américas. COLUMNA