Todos los derechos reservados Acierta.mx 2024

Inteligencia artificial, responsabilidad jurídica y dilemas del poder humano

I. Introducción

La inteligencia artificial (IA) se ha convertido en una de las transformaciones más profundas del siglo XXI, ha sido capaz de alterar la dinámica social, económica y política de una forma vertiginosa. A diferencia de otras innovaciones tecnológicas, la IA, no solo modifica herramientas, sino que sustituye y amplifica funciones cognitivas humanas, como la toma de decisiones, la interpretación de datos o la predicción de patrones complejos. La reducción de la brecha entre capacidades humanas y capacidades técnicas reconfigura los cimientos del derecho, especialmente en lo relativo a la responsabilidad, la causalidad y la protección de bienes jurídicos fundamentales.

La Organización de las Naciones Unidas (ONU), ha advertido que la acelerada adopción de sistemas autónomos requiere una reflexión crítica sobre su gobernanza, así como el establecimiento de marcos normativos que la regulen, basados en principios de transparencia y protección de derechos humanos (ONU, 2021, 2023). De forma paralela, la literatura y el cine, desde su mundo de ficción que hoy parece superar la realidad, han predecido los riesgos y dilemas éticos asociados a inteligencias no humanas. Estas narrativas han abarcado desde las Leyes de la Robótica de Asimov, hasta el surgimiento hostil de Skynet en Terminator, lo que permite analizar de manera simbólica los límites del control humano y los peligros inherentes a sistemas que pueden operar con lógica distinta a la humana.

El presente ensayo pretende ampliar el análisis previo desde una mirada técnico-jurídica y filosófica, integrando doctrina, regulación comparada, casos contemporáneos y riesgos sistémicos. Con el objetivo de contribuir al debate académico sobre la necesidad de un nuevo paradigma jurídico que responda a la complejidad de la IA y a su impacto transversal en la organización social, y permear en la sociedad sobre el uso informado y responsable de la IA.

II. Desarrollo

La inteligencia humana, en el campo de las ciencias cognitivas y la psicología, suele definirse como la capacidad para aprender de la experiencia, resolver problemas, adaptarse a entornos cambiantes y producir o valorar resultados culturalmente relevantes. Autores como Howard Gardner y Robert Sternberg han mostrado además que la inteligencia humana es plural y que abarca dimensiones afectivas, sociales, prácticas y culturales.

La Inteligencia artificial (IA), en la literatura fundacional de John McCarthy se define como “la ciencia y la ingeniería de fabricar máquinas inteligentes”, es decir, sistemas que realizan tareas que, si las realizara un humano, se calificarían como inteligentes. En la actualidad, la IA, no sólo busca entender la inteligencia humana, sino construir agentes que perciban, razonen, aprendan y actúen en entornos complejos para alcanzar metas. La IA es, por tanto, una disciplina tecnológica y científica cuyo resultado son sistemas computacionales capaces de procesamiento simbólico y estadístico sobre datos para producir decisiones, recomendaciones y acciones automatizadas.

Origen y naturaleza: la inteligencia humana es biológica, corporal, afectiva y social; la IA es una construcción técnico-computacional.

Comprensión vs rendimiento: los humanos pueden dar cuenta (explicar) de sus intenciones y valores; los sistemas de IA muestran alto rendimiento en tareas concretas (clasificación, predicción) pero sin ofrecer explicaciones claras, a diferencia de las humanas.

Contexto ético y normativo: las acciones humanas están sujetas a responsabilidad moral y jurídica; la IA, plantea retos de atribución de responsabilidad entre diseñadores, operadores y el propio Estado. Estas distinciones resultan determinantes cuando la IA es trasladada al ámbito de la administrción pública.

La inteligencia artificial como problema jurídico

La IA pasó de ser una disciplina puramente informática a una materia de análisis y estudio jurídico, en el momento que  su aplicación comenzó a incidir directamente en derechos subjetivos, procesos administrativos, decisiones judiciales y en la configuración de políticas públicas. La utilización de sistemas para determinar riesgos crediticios, sugerir condenas penales o gestionar servicios gubernamentales introduce el riesgo de que la racionalidad técnica invisibilice y sustituya decisiones en las que antes predominaba el criterio humano.

La preocupación jurídica internacional es latente y se ha manifestado en algunas de las acciones que se señalan:

  • La Recomendación de la UNESCO sobre la Ética de la IA (2021).
  • Los informes de la Oficina del Alto Comisionado de Derechos Humanos sobre IA y privacidad (2021).
  • El Reglamento Europeo de Inteligencia Artificial.
  • La Estrategia de IA del Consejo de Europa.

Han sido avances impirtantes, sin embargo, no existe un régimen jurídico uniforme. Muchos Estados carecen de regulación específica, generando vacios y zonas grises que permiten el uso indiscriminado de tecnologías de alto riesgo.
Floridi (2020) sostiene que la IA genera una nueva ecología de información que afecta conceptos jurídicos como:

  • Intención,
  • voluntad,
  • conducta,
  • responsabilidad,
  • causalidad, y
  • deber de supervisión.

Lo anterior lleva a replantear el derecho desde una perspectiva algorítmica que reconozca los límites cognitivos humanos frente a sistemas adaptativos cuya lógica interna es inaccesible incluso para sus creadores.

Las literatura de ciencia ficción ha dotado de lo que simbolicamente se podría denominar “lentes de visión futurística”, para anticipar los problemas jurídicos actuales. Aunque en su momento solo fueron craciones de la imaginación, con una visión más crítica se podría decir que operon como advertencias que advertían tensiones entre el poder humano y el comportamiento imprevisible de sistemas autónomos.

Las Leyes de la Robótica de Asimov (1950) funcionan como una síntesis narrativa de la aspiración humana de controlar a las máquinas mediante reglas internas. En el contexto jurídico, equivalen a un sistema normativo incrustado dentro del código mismo, un antecedente conceptual del actual enfoque ethics-by-design. La primera ley – no causar daño al ser humano – la cual se puede entender como el antecedente del principio jurídico de respeto a la dignidad humana.

De igual forma, Asimov también mostró que incluso reglas bien diseñadas pueden generar conflictos no previstos, lo que constrasta con los desafíos contemporáneos en IA, las normas internas de un algoritmo pueden producir efectos colaterales incompatibles con el ordenamiento jurídico, especialmente cuando interactúan múltiples sistemas complejos.

El conflicto principal de la película, basada en la obra de Asimov, radica en la reinterpretación de las leyes robóticas por parte de VIKI, un sistema central capaz de sacrificar libertades humanas en nombre de una protección mal entendida. Esta narrativa subraya dos puntos jurídicos:

La divergencia entre finalidades humanas y finalidades algorítmicas.

El riesgo del paternalismo técnico, donde un sistema superior en cálculo justifica limitar derechos fundamentales para maximizar la seguridad colectiva.

En la realidad, la experiencia con la IA predictiva demuestra que estas tensiones no son hipotéticas (superaron la ficción). Sistemas aplicados en justicia penal en Estados Unidos replicaron sesgos raciales, justificando medidas restrictivas bajo lógicas matemáticas ajenas a la noción jurídica de igualdad sustantiva.

Por su parte, Skynet representa el extremo, una IA militar que, al buscar maximizar su seguridad, concluye que la humanidad es una amenaza. Aunque este escenario es fantasioso, sirve como metáfora para reflexionar sobre:

  • IA militar autónoma.
  • Sistemas de defensa automatizada.
  • Infraestructuras energéticas inteligentes.
  • Control algorítmico de redes de comunicación.

La ONU (2023) clasifica estos ámbitos como de riesgo intolerable, ya que un error podría desencadenar consecuencias globales irreversibles.

Responsabilidad, causalidad y atribución en sistemas de IA

La IA, no puede ser autora de delitos ni titular de obligaciones jurídicas. En la actualidad existen propuestas para dotarla de “personalidad electrónica”, la doctrina dominante rechaza esta idea por tres razones:

  • No existe consciencia ni voluntad.
  • No se considera justo atribuirle responsabilidad a un ente incapaz de comprender la sanción.
  • Generaría incentivos perversos, permitiendo eludirse a los verdadereos responsables.

Por lo tanto, la responsabilidad debe radicar en los agentes humanos vinculados, llámense  fabricantes, desarrolladores, operadores, usuarios o autoridades públicas que adopten herramientas automatizadas.

Problemas de causalidad en sistemas complejos

Los algoritmos de aprendizaje profundo generan modelos con miles de parámetros internos que evolucionan dinámicamente. Cuando una IA produce un daño, identificar la causa exacta puede resultar imposible. En este contexto, la doctrina propone:

  • Responsabilidad objetiva por riesgo tecnológico creado.
  • Inversión de la carga de la prueba.
  • Seguro obligatorio para sistemas de alto riesgo.
  • Obligación reforzada de mantenimiento y supervisión.

Estos mecanismos pretenden equilibrar la realidad técnica con la finalidad de brindar protección a las posibles víctima.

Derechos humanos y afectaciones sistemáticas

El uso de IA, en entornos públicos y privados plantea riesgos graves:

  • Discriminación algorítmica.
  • Vigilancia masiva sin controles judiciales.
  • Decisiones automáticas sin revisión humana.
  • Pérdida de privacidad por extracción de datos de forms invisibles.
  • Falta de explicabilidad en decisiones administrativas.

La Corte Europea de Derechos Humanos ha advertido que la transparencia es un requisito para asegurar el debido proceso, lo que implica que cualquier sistema aplicado por el Estado debe ser auditado externamente.

La IA como instrumento de poder y como amenaza a su legitimidad

La IA, le da a quien la controla un poder extraordinario, como es, la capacidad de procesar patrones invisibles para el común de la población, predecir comportamientos y modificar conductas mediante sistemas informativos. Esto plantea dilemas democrático-constitucionales:

  • Concentración de poder informacional,
  • manipulación de masas,
  • erosión del pluralismo, y
  • reducción del espacio deliberativo.

La legitimidad política se ve amenazada cuando la ciudadanía desconoce los mecanismos técnicos que influyen en su vida diaria y la toma de decisiones.

Delegación del juicio humano y erosión del control democrático

El uso desmedido de IA, puede delegar decisiones fundamentales a sistemas que no poseen empatía ni comprensión moral. La automatización de la vida pública puede generar:

  • Decisiones administrativas incomprensibles,
  • vigilancia invisible,
  • predicciones punitivas,
  • exclusión social automatizada, y
  • erosión de garantías procesales.

El derecho debe limitar esta delegación y garantizar la intervención humana en todos los procesos que impacten derechos fundamentales.

El deseo humano del control absoluto de los sitemas de algoritmos, está destinado al fracaso debido a factores de su propia naturaleza como es:

  • Complejidad técnica,
  • adaptabilidad autónoma,
  • imprevisibilidad estadística,
  • dependencia sistémica,
  • fallas emergentes que no pueden anticiparse.

Esto no significa que se deba renunciar a la regulación, sino que hay que reconocer que el control debe ser adaptativo y basado en la prevención.

⁠Aplicación e impacto de la IA en la administración pública

La IA, indiscutiblemente promete mejoras en eficiencia, detección de fraude, en la orientación de servicios, análisis predictivo para políticas públicas y automatización de tareas administrativas rutinarias; en contraste, plantea grandes riesgos como pueden ser discriminatorios, de opacidad algorítmica, errores que trastoquen derechos fundamentales, centralización de decisiones y erosión de la rendición de cuentas si no se preeven controles adecuados. La implementación de la IA,  en el sector público puede aumentar la eficiencia pero también intensificar riesgos ante la poca claridad o nulas prácticas de gobernanza, de  capacidad técnica, y marcos normativos.

Impacto en gobernanza y derechos

Transparencia y acceso a la información: Los sistemas algorítmicos pueden dificultar la comprensión de cómo se toman las decisiones públicas, ello requeriría la exigibilidad de explicacines y rendiciónde cuentas mediante auditorías.

No discriminación y dignidad: La IA, al ser alimentada con datos históricos puede replicar desigualdades; el Estado, como garante de derechos, enfrenta el deber de prevenir discriminación y proteger la dignidad humana.

Participación y pluralidad: En sociedades pluriculturales como es el caso de la mexicana, la IA, puede invisibilizar saberes y contextos locales si los diseños y los datos no incorporan diversidad lingüística, cultural y geográfica.

⁠La legislación mexicana respecto de la IA en el sector público

En México, a la fecha no existe un marco jurídico federal que regule de forma específica y completa el uso de la IA, por parte de la administración pública. Solo se cuenta con iniciativas legislativas dispersas, lineamientos sectoriales y documentos técnico-politicos en proceso de discusión en el Senado. En los últimos años (2024–2025) el Senado ha promovido conversatorios y más de cincuenta iniciativas orientadas a normar la IA, y se han presentado propuestas técnicas para un marco normativo, sin que aún se haya aprobado y aplicado homogéneamente alguna legislación a nivel federal.

Entidades como el extinto Instituto Nacional de Transparencia (INAI) publicaron recomendaciones y lineamientos sobre el tratamiento de datos personales en la IA, y distintos acuerdos administrativos contienen lineamientos técnicos generales para la presentación de información; sin embargo, las reformas constitucionales y cambios institucionales recientes han modificado la arquitectura institucional de transparencia y protección de datos, lo cual afecta la capacidad regulatoria y de fiscalización del uso público de IA, en términos prácticos.

Principios jurídicos y éticos que deben presidir la regulación y uso público de la IA en México

Partiendo de la idea de que la IA, es una creación humana destinada al beneficio humano, la regulación y las políticas públicas deberían incorporar, como mínimo, lo siguiente:

  • Protección de la dignidad humana y derechos fundamentales, es decir prevenir la discriminación, respetar el derecho a la privacidad, acceso a la justicia.
  • Transparencia en las decisiones automatizadas que afecten derechos o intereses legítimos de la ciudadanía.
  • Responsabilidad y rendición de cuentas que se traduzca en atribución clara de responsabilidades contractuales y administrativas para diseñadores, proveedores y autoridades que adopten sistemas de IA.
  • Control humano en decisiones de alto impacto como lo es en el caso de seguridad, bienestar social, empleo.
  • Participación pública y enfoque pluricultural a fin de que se cuente con un diseño inclusivo y de consulta a comunidades indígenas y grupos vulnerables para prevenir invisibilización cultural.

Retos para el gobierno mexicano 

Se proponen medidas concretas para optimizar el uso de la IA, en la administración pública mexicana, respetando la dignidad humana, la pluralidad cultural, y atendiendo las limitaciones de infraestructura y capital humano.

a) Diseñar e implementar un marco legal federal sobre IA. Una ley general que establezca principios, derechos, obligaciones y mecanismos institucionales atendiendo las recomendaciones de los organizmos internacionales para la regulación del uso de la IA, toda vez que la  ausencia de un marco normativo generan vacíos de responsabilidad y heterogeneidad en la protección de derechos.

b) La creación de un organismo regulador con capacidad técnica y autonomía que le permita un margen de acción eficaz y eficiente en la regulación de la IA, a través de la evaluación de riesgos, certificación de algoritmos de uso público, auditorías periódicas y atención de quejas ciudadanas. Dicho organismo debe publicar informes y sanciones administrativas. 

c) Evaluaciones de Impacto de Derechos Humanos (EIDH) y de Impacto Algorítmico antes de autorizar la implementción de cualquier IA. Periódicas EIDH, públicas y vinculantes, así como pruebas de sesgo y planes de mitigación ante cualquier eventualidad. E Incluir consulta a comunidades indígenas que oincluyan evaluaciones sobre acceso a electricidad e internet.

d) Establecer reglas de contratación pública que condicionen la adquisición de soluciones del uso de la IA, sobre planes de transición laboral, priorizando el uso de la IA para complementar tareas y aumentar la productividad y no para sustituir sin medidas sociales; incluir cláusulas que obliguen a proveedores a financiar capacitación, permitiendo prioritariamente la reubicación antes que el despido. E Incluir análisis de costo-beneficio social y fiscal.

e) Programas nacionales y regionales de formación en competencias digitales y en uso y gestión de IA, para servidores públicos y para trabajadores en sectores vulnerables; subsidios y alianzas con universidades públicas (UNAM, IPN, universidades estatales) para diplomados y posgrados e incentivos fiscales a empresas que inviertan en capacitación de su personal.

f) Integrar la estrategia de IA con políticas públicas de infraestructura, priorizar proyectos de electrificación y conectividad en zonas rurales e indígenas; programas de acceso público como son bibliotecas o centros comunitarios equipadas y personal capacitado; garantizar que servicios públicos automatizados tengan alternativas presenciales para quienes carezcan de acceso al uso de la tecnología.

g) Reforzar la protección de datos personales, crear políticas de interoperabilidad abiertas y estándares nacionales de datos; promover el desarrollo de soluciones abiertas y soberanas en servidores nacionales para la prestación de servicios críticos.

h) Encaminar acciones que permitan el acceso de los ciudadanos a ejercere su derecho de impugnación, así como revisiones efectivas a cargo de personal humano, creación de un registro público de los sistemas automáticos destinados a la toma de decisiones de alto riesgo, y preever recursos administrativos y judiciales especializados, es decir, la creación de mecanismos de reparación y acceso a la justicia.

Propuesta de bases para un marco jurídico integral

  • Supervisión humana permanente
  • Transparencia, y rendición de cuentas periodicamente
  • Prevención y reparación del daño
  • Protección de derechos humanos
  • Responsabilidad de quienes intervienen en la cración e implementación de la IA.
  • Prohibición de sistemas autónomos dañinos.

Creación de Instituciones

  • Agencias nacionales de supervisión de IA.
  • Ente autónomo que funja como auditor de los algoritmos utilizados por la IA.
  • Registro nacional de IA, el cual deberá ser obligatorio y de mayor control en las de alto riesgo.
  • Controles constitucionales eficaces.
  • Evaluaciones periodica del impacto en los derechos humanos por parte de un organo técnico, especializado. Y autónomo.

II. Conclusiones

La Inteligencia Artificial es sin lugar a duda, una herramienta transformadora, en contreaste, trae consigo riesgos que pueden socavar la dignidad humana, la igualdad y la legitimidad democrática, lo que se traduce en focos de atención y áreas de portunidad par la administración pública. La educación en IA debe integrarse de forma general en el sistema educatvivo mexicano y de forma especializada en las universidades del país, en las facultades de derecho, ingeniería, filosofía y ciencias sociales. Así de manera conjunta y organizada, goibierno, académicos y sociedad capacitada e informada hacer frente a los retos que representa el uso e incorporación de la IA, a la vida diaría.

La idea de que la aparición e implementación de la IA, representa el inminente desplazamiento y sustitución del ser humano, es una verdad o realidad sesgada. Entendiendo que la IA es una creación de la humanidad para uso y beneficio de esta, debe comprenderse entonces que solo quienes se niegen o se les niegue el derecho y posibilidad a conocer el uso y aplicación de estas herramientas tecnológicas y la capacitación para su comprensión, manipulación, operación y desarrollo, son quienes corren el riesgo de ser sus tituidos por la IA. Es precisamente en este ùnto donde el Estado y su administración pública juegan un papel fundamental, debiendo adoptar una postura seria y comprometida que redunde en acciones contundentes que permitan una capacitación y regulación de la IA, a nivel nacional, permeando en los 3 órdenes de gobierno y por ende en beneficio del pueblo mexicano.

En cuanto al derecho, este enfrenta una tarea histórica, consistente en adaptarse a una tecnología que si bien, amplifica capacidades humanas, también puede limitar la autonomía, la justicia y la seguridad colectiva. La creatividad plasmada en Yo, Robot y Terminator, en su mundo de ficción, anticipó los dilemas actuales, pero es responsabilidad de las instituciones democráticas evitar que estas advertencias se materialicen.

Construir un marco jurídico fuerte, preventivo y con enfoque en derechos humanos es fundamental para garantizar que la IA se mantenga subordinada al Estado de Derecho y que su uso contribuya al bienestar social, sin generar riesgos de concentración de poder o pérdida de control humano.

Share With:
Rate This Article

demo@demo.com

No Comments

Sorry, the comment form is closed at this time.