
Secciones
Servicios
Destacamos
El magistrado del Tribunal Supremo (TS) Manuel Marchena advirtió este viernes de los peligros que acechan al sistema jurídico por el desarrollo de la inteligencia artificial. «La IA aliada con la ciberdelincuencia va a provocar un cambio del modelo social, un debilitamiento de las estructuras del Estado Constitucional y todo eso está por venir», dijo.
Marchena, que participó en las Jornadas Jurídicas sobre ciberdelincuencia que acogió el Colegio de Abogados de Las Palmas y que organizó KLJCFC Asesores, recordó que cuando se habla de cibercrimen «hay que darle un revolcón intelectual» porque si bien «todos hemos tenido una aproximación intuitiva y hemos oído hablar de las ciberestafas, la pornografía infantil, los ataques informáticos o el tráfico de drogas» que, evidentemente, son una amenaza, hay más y es que «por el impacto de la IA se va a dar una mutación y no solo va a afectar a los bienes jurídicos», señaló.
97,7% de los escritos de acusación realizados con IA en sustitución del ministerio Fiscal en un programa experimental en China fueron acertados, advirtió Manuel Marchena en la charla sobre ciberseguridad.
El magistrado recordó el ejemplo de los que ocurrió en un hospital londinense que tuvo que cerrar las urgencias. «El ciberataque que sufrió provocó una imagen destructiva de un cibercrimen que ya no quería estafar, quería demostrar la vulnerabilidad de un sistema y hacerlo a cambio de dinero. Fue un impacto y una advertencia para la confianza en el funcionamiento del sistema». Además, entre las lecciones que aprendimos es que no fue neutralizado por los servicios del Estado. Lo neutralizó otro hacker, y esto genera una reflexión». Y la primera de ellas, continuó el jurista, «es que implica verdaderamente un peligro, por supuesto que sí, pero el peligro va a ir incrementándose».
Marchena alabó que se democratizara la tecnología, pero al mismo tiempo advirtió de sus consecuencias. «Hoy en día internet ya no es el campo natural de una élite preocupada por las conexiones telemáticas. Hoy la democratización del uso de la IA esta poniendo al alcance de cualquiera instrumentos que pueden ser destructivos», dijo.
Y lamentó que las autoridades, incluso las europeas, van por detrás del avance tecnológico y actúan «a la defensiva». De hecho, recordó, la regulación de la UE se hizo cuando no existía Chat GTP, lo que plantea el problema de la «obsolescencia». En este marco aludió a que «la IA asociada al cibercrimen no se defiende con enunciados normativos de este reglamento. El ritmo al que avanza la IA es espeluznante». Marchena enumeró lo que se espera que se avance en muchas áreas gracias a la IA, como en la Medicina o en el campo de la astrofísica, pero trajo a primera línea un problema fundamental para la sociedad: «También tendrá efectos que hoy son desconocidos» lo que conlleva preocupaciones como «el ir hacia una sociedad en la que la línea entre la verdad y la mentira no sea reconocible, que perdamos ese derecho a nos ser engañados».
Noticia relacionada
Y puso como ejemplo la creación de vídeos con IA que esparzan noticias falsas sobre candidatos en períodos electorales «cuando no haya tiempo para desmentirlos y puedan lograr un vuelco electoral», lamentó.
Marchena también hablo de las posibilidades de la IA en el sistema jurídico, como apoyo e incluso sustitución de la abogacía o la judicatura, lo cual le llevó a plantear un dilema. La justicia es lenta, los procedimientos se dilatan en el tiempo, pero las personas son atendidas por jueces y juezas que las escuchan. Sin embargo, si el procedimiento lo dirime la IA la solución la tendrían ya, pero sin ser escuchados.
Con todo, dijo Marchena, cree que «la administración de justicia no puede perder el rostro humano», de ahí que advierta sobre los peligros de que el «algoritmo» se independice de quien lo programa, «Dejo constancia de mi preocupación advirtiendo de que hay que controlar algo que puede escapar de nuestro control».
En las Jornadas Jurídicas sobre ciberdelincuencia que acogió el Colegio de Abogados de Las Palmas este viernes también participó el vocal del Consejo General del Poder Judicial (CGPJ) José Antonio Montero, para quien la inteligencia artificial están provocando cambios que «son ya una realidad» a la que «nos tenemos que adaptar. Instituciones y particulares», añadió.
A su juicio, es «un tren que está pasando y hay que cogerlo», aunque también señaló que era «un reto para la sociedad» que podía llevarnos a ser una comunidad «más transparente y más democrática». Montero advirtió que con ella «todo está cambiando» incluidas «las relaciones de convivencia». Y que también «afecta delincuencia, a actores y a víctimas».
El viceconsejero de Administraciones Públicas y Justicia, Cesáreo Rodríguez, que acudió a las jornadas en sustitución de la consejera, Nieves Lady Barreto, recordó que las administraciones públicas y la justicia «ya están haciendo programas para agilizar trámites gracias al uso de la IA». Pero advirtió que su uso «debe ser controlado» porque «tendrá la tentación de determinar la voluntad de los demás». En esa línea abundó en que la seguridad digital es «esencial para prosperar» y señaló la importancia de controlar los ataques a través de programas de IA. Así, abundó, «la IA también nos puede ayudar convirtiéndose en un recurso activo de la ciberseguridad».
En declaraciones a los periodistas el director general de KLJCFC Asesores, Juan Carlos Fernández destacó la labor de divulgación de «los mecanismos de control de riesgos» de estas jornadas que también se han realizado en Madrid, Andalucía y Extremadura. Andalucía y Extremadura.
Publicidad
Publicidad
Publicidad
Publicidad
Esta funcionalidad es exclusiva para registrados.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para registrados
¿Ya eres registrado?
Inicia sesiónNecesitas ser suscriptor para poder votar.