

Secciones
Servicios
Destacamos
¿Puede una inteligencia artificial encargarse de revisar y modificar las leyes que regulan la vivienda en Estados Unidos? Aunque suene a una distopía tecnológica, ... es una situación real. El Departamento de Vivienda y Desarrollo Urbano (HUD, por sus siglas en inglés) está utilizando IA para reformular regulaciones federales. Lo más llamativo de todo: el proyecto está liderado por un estudiante universitario, como parte de una iniciativa impulsada por el Departamento de Eficiencia Gubernamental (DOGE), enmarcada en el ambicioso plan político conocido como Project 2025.
Esta iniciativa busca reducir la intervención estatal mediante la eliminación o modificación de miles de normativas federales. Para acelerar ese proceso, se ha recurrido a modelos de lenguaje entrenados para analizar documentos legales, compararlos con leyes vigentes y sugerir cambios basados en interpretaciones estrictamente textuales.
La propuesta puede parecer innovadora: una IA que procesa, compara y sugiere correcciones en regulaciones antiguas, detectando inconsistencias y redundancias a una velocidad que supera con creces a cualquier equipo humano. Pero detrás de esta promesa de eficiencia se esconden riesgos profundos, especialmente cuando la inteligencia artificial se usa sin las debidas garantías técnicas, éticas y democráticas.
El problema no es la tecnología en sí, sino su aplicación sin control. Estos modelos no comprenden el contexto humano de las leyes. Son herramientas estadístico-lingüísticas que identifican patrones, pero no entienden el impacto social, económico o legal de sus sugerencias. No distinguen entre una norma que impide un desahucio injusto y otra que ralentiza un trámite burocrático. Para la IA, ambas son líneas de texto a reorganizar.
Además, estos sistemas pueden cometer errores graves. Por ejemplo, hay casos documentados donde los modelos generan referencias legales inexistentes o malinterpretan jurisprudencia. Y si no hay una revisión experta exhaustiva, estos fallos pueden trasladarse directamente a la normativa. Es decir, una IA puede recomendar eliminar una protección clave para inquilinos o modificar criterios de acceso a vivienda sin comprender las consecuencias reales de esas decisiones.
Lo más preocupante es la falta de transparencia. Ni el HUD ni el DOGE han aclarado qué modelo de inteligencia artificial se está utilizando, con qué datos fue entrenado, cómo se validan sus resultados o quién supervisa sus recomendaciones. Esta opacidad entra en conflicto directo con los principios del derecho administrativo, que exige procesos basados en evidencia clara, trazabilidad de decisiones y participación ciudadana.
Tradicionalmente, en Estados Unidos, cuando se modifica una regulación federal, debe seguirse un proceso conocido como notice-and-comment: se publica la propuesta, se abre un periodo para recibir comentarios del público y, finalmente, la agencia debe justificar cualquier cambio. Si ese proceso se sustituye por una IA que actúa sin que nadie pueda observar ni opinar, se elimina un pilar fundamental de la gobernanza democrática.
Y no hablamos de normas menores. El HUD gestiona programas esenciales para poblaciones vulnerables: personas de bajos ingresos, mujeres que han sufrido violencia, personas mayores o veteranos. Cambiar las reglas que protegen su acceso a la vivienda con el único criterio de 'eficiencia' puede derivar en una desprotección generalizada.
Mientras Estados Unidos experimenta con este tipo de automatización sin garantías claras, en Europa avanzamos en el sentido opuesto. La recién aprobada Ley de Inteligencia Artificial de la Unión Europea establece exigencias específicas para los sistemas utilizados en el sector público. Por ejemplo, obliga a hacer evaluaciones de impacto, a revelar los datos con los que se entrenan los modelos, a garantizar supervisión humana constante y a establecer auditorías externas para verificar su funcionamiento.
Estas medidas no son burocracia innecesaria: son una forma de proteger derechos fundamentales en una era donde la tecnología puede acelerar procesos, pero también amplificar errores o desigualdades. Un informe de referencia en el ámbito jurídico propone incluso crear una 'hoja de puntuación' para la IA gubernamental, con criterios claros de transparencia, seguridad y responsabilidad pública.
En el caso concreto del HUD, la situación se agrava por el perfil del responsable del proyecto: un estudiante universitario sin experiencia en derecho administrativo, políticas públicas ni inteligencia artificial. Aunque la juventud y el talento son valiosos, confiar decisiones complejas de gobernanza en perfiles sin formación especializada puede llevar a errores costosos, sobre todo cuando se combinan con herramientas tecnológicas tan potentes como opacas.
Esto ha hecho que diversos expertos empiecen a reclamar la creación de un marco legal específico para regular el uso de IA en la administración pública. Las propuestas incluyen la obligación de auditorías independientes, la publicación obligatoria de los datos utilizados para entrenar los modelos, la rendición de cuentas en caso de errores y, sobre todo, la garantía de que toda decisión automatizada pueda ser revisada por personas.
Gobernar con algoritmos no es gobernar mejor si se pierde el control democrático. Las decisiones públicas deben ser comprensibles, trazables y abiertas al escrutinio. De lo contrario, corremos el riesgo de que la eficiencia se convierta en un atajo peligroso, donde las máquinas toman decisiones sin saber a quién afectan ni cómo. Y lo más grave: sin que nadie pueda preguntar por qué.
¿Tienes una suscripción? Inicia sesión
Publicidad
Publicidad
Publicidad
Publicidad
Esta funcionalidad es exclusiva para registrados.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para registrados
¿Ya eres registrado?
Inicia sesiónNecesitas ser suscriptor para poder votar.