OPUS MAGNA CONSTITUCIONAL
ISSN: 2707-9857
Corte de Constitucionalidad – Instituto de Justicia Constitucional
República de Guatemala
Tomo XXII
Bajo esta perspectiva, la regulación jurídica de la IA ha encontrado poco desarrollo en
algunos países, tal es el caso de los países centroamericanos, en especial el caso de Guatemala que
no cuenta con una Ley que, además de proteger datos personales, tenga un enfoque basado en el
uso de la IA de manera ética y respetuosa de los derechos humanos. Más aún no existe una
regulación en torno a los ciberdelitos y la ciberseguridad en el país.
Por su parte, es importante mencionar que, además de la necesidad de una regulación que
logre un adecuado equilibrio entre la protección de datos personales (habeas data) y el derecho de
acceso a la información pública, se plantea también el dilema relativo al uso responsable de la
inteligencia artificial. Ello obedece a que esta tecnología, en su vertiente más avanzada, permite
desarrollos generativos de alto alcance que, si bien ofrecen oportunidades para optimizar procesos
y ampliar capacidades en el ámbito judicial, al mismo tiempo pueden propiciar nuevos modos de
actuación para la delincuencia organizada, incrementando los riesgos en materia de seguridad
jurídica y ciudadana.
Comparación de experiencias internacionales con el sistema jurídico guatemalteco. La
experiencia internacional, producto de la globalización, revela importantes avances tecnológicos.
Sin embargo, a la par de estos avances la regulación jurídica ha mostrado pocos desarrollos. Para
efectos de la presente investigación, tomaremos únicamente la comparación de países como
España, Colombia, Argentina y México.
España. En España, la regulación jurídica de la IA comenzó a regirse por el Reglamento de
Inteligencia Artificial para Europa. El Reglamento (UE) 2024/1689 (2024), conocido como el
Reglamento de Inteligencia Artificial, es un marco normativo pionero adoptado por la Unión
Europea para regular el uso de sistemas de IA. Este reglamento tiene como objetivo garantizar que
la IA se desarrolle y utilice de manera segura, ética y respetuosa con los derechos fundamentales,
al tiempo que promueve la innovación y la competitividad en el mercado único europeo. Dada la
creciente influencia de la IA en diferentes sectores, incluido el ámbito jurídico, este reglamento es
un paso significativo hacia la creación de un entorno regulador más coherente y responsable para
los sistemas automatizados en Europa.
Una de las características fundamentales del Reglamento es la clasificación de los sistemas
de IA según su nivel de riesgo. Esta clasificación permite una regulación proporcional, adaptada a
las implicaciones que cada tipo de IA puede tener sobre la sociedad y los derechos humanos. En
primer lugar, los sistemas de IA que representan un riesgo inaceptable son completamente
prohibidos. Esto incluye sistemas que podrían manipular el comportamiento humano, como los
utilizados para realizar vigilancia masiva sin control o autorización. En segundo lugar, se
identifican los sistemas de alto riesgo, que son aquellos utilizados en sectores clave como la
justicia, la salud o la educación. Estos sistemas están sujetos a estrictos requisitos regulatorios, que
incluyen evaluaciones de conformidad, medidas para mitigar los riesgos y la obligación de
garantizar una supervisión humana de las decisiones automatizadas. Para los sistemas de riesgo
limitado, se exige transparencia, ya que los usuarios deben ser informados de que están
interactuando con una IA, pero no se imponen obligaciones regulatorias tan estrictas. Finalmente,
193