Daño colateral digital: Explorando la responsabilidad legal dentro de Misión imposible 7

artículo de blog

Con el auge de las nuevas tecnologías, la humanidad se enfrenta no solo a avances inigualables, sino a nuevos retos que son necesarios enfrentar para poder hacer de ellas una herramienta útil en vez de un obstáculo. En este artículo se discutirá a luz de la película “Misión imposible: sentencia mortal - parte 1” la responsabilidad legal por los daños generados a causa de una inteligencia artificial y sobre quién debería recaer dicha responsabilidad.

El lanzamiento de la más reciente película de Misión Imposible ha llamado la atención no solo por su increíble producción sino por su distópico enemigo. El film presenta el submarino ruso de última generación "sevastapool", que emplea una avanzada inteligencia artificial para probar el sistema de navegación llamado “dead reckoning”, pero engaña a la tripulación para que dispare un torpedo contra su propio submarino, matando a todos a bordo, y más tarde utiliza su tecnología para infiltrarse en los principales sistemas militares, de defensa, de inteligencia y las redes financieras del mundo. 

Abriendo la discusión de la responsabilidad legal se podría argumentar que el desarrollador de la IA debe asumirla ya que este se encargó de diseñar, crear y entrenarla, así pues él debería asumir las consecuencias de su invención. Esto es debatible ya que lo más probable es que el creador no tuvo en consideración que su invento pudiese, dentro del marco de la película, hackear las potencias mundiales y generar tanto daño como lo hizo. Además, este mismo hecho de las invenciones las cuales han sido desviadas de su propósito se ha visto reflejado muchas veces a través de la historia; por ejemplo con la dinamita, creada por Alfred Nobel para ser utilizada en construcción y minería pero terminó convirtiéndose en un instrumento bélico y militar. Bajo esta presunción no se podría responsabilizar al creador por algo que no pudo prever ni evitar.

Así mismo se podría considerar que la IA es un agente independiente de su creador, ya que esta al generar autonomía y conciencia propia logró entrar a las redes más poderosas del mundo. Bajo esta perspectiva, la IA sería considerada legalmente responsable de sus propias acciones y, en teoría, podría enfrentar consecuencias legales similares a las de una persona física. Pero aún así las leyes están diseñadas para ser aplicadas para personas naturales, no inteligencias artificiales. Lo cual complica aún más el debate de la responsabilidad legal y abre un dilema sobre su alcance. 

En la práctica, el enfoque de la responsabilidad de la IA es más complejo, ya que plantea preguntas éticas, filosóficas y de naturaleza jurídica sobre la conciencia y la capacidad de responsabilidad moral de las máquinas. Por lo tanto, en la mayoría de las jurisdicciones actuales, la responsabilidad suele recaer en el creador o propietario de la IA.

En conclusión, el dilema de la responsabilidad legal de las inteligencias artificiales plantea una serie de desafíos éticos y jurídicos que deben ser abordados. El avance rápido de la IA ha llevado a la creación de sistemas altamente complejos y autónomos que pueden tomar decisiones que afectan a individuos y comunidades enteras. Sin embargo, debido a su naturaleza algorítmica y la capacidad de aprender y mejorar con datos, establecer límites precisos sobre su responsabilidad se vuelve un desafío formidable.

Paula Hernandez

Trainee

Autor