Me complace anunciar la publicación de mi artículo «El uso jurisdiccional de la inteligencia artificial: habilitación legal, garantías necesarias y la supervisión por el CGPJ», en la revista Actualidad Jurídica Iberoamericana, nº 21, 2024

Puedes acceder a mi estudio AQUÍ. Se incluye en un excelente monográfico sobre JusticIA digital que reúne ni más ni menos que 22 estudios sobre estos temas, todo muy bien coordinado por Ana Montesinos y Diana Marcos, a quienes agradezco su empeño.

En este estudio quizá obtengas respuestas o al menos te puedes plantear cuestiones como:

  • ¿En qué funciones jurisdiccionales -y no meramente administrativas o procesales- puede utilizarse la IA? ¿De verdad que hay una «reserva de humanidad» que limite el uso de la IA en justicia?
  • ¿Cuáles son las principales carencias de Real Decreto-ley 6/2023 sobre el uso de IA y sistemas automatizados en Justicia, y cómo podrían subsanarse?
  • ¿En qué medida el Reglamento de Inteligencia Artificial de la UE (RIA) es suficiente regulación legal y con garantías para el uso de IA en justicia?
  • ¿Qué papel debería jugar el Consejo General del Poder Judicial (CGPJ) en la supervisión de sistemas de inteligencia artificial de alto riesgo? ¿por qué otras instituciones como la AESIA o la AEPD no son adecuadas para esta función?

Vengo sosteniendo un derecho a la inteligencia artificial (IA) y una consiguiente obligación de implantación por los poderes públicos, también en la Justicia.

Este estudio pretende allanar el camino para la integración de la IA en la función jurisdiccional. También busca asegurar que esta integración se realice respetando y fortaleciendo los derechos fundamentales. Creo firmemente que, aunque es necesario exigir garantías, debemos evitar una resistencia exagerada al uso público de la IA, en este caso en la Justicia. Estoy convencido de que los discursos actuales que cierran la puerta a estas innovaciones serán vistos con nostalgia en el futuro, cuando la tecnología sea una parte integral y confiable del proceso judicial.

En este estudio, defiendo el uso jurisdiccional -no meramente procesal o accesorio- de la IA en el sistema legal español, pero siempre bajo la premisa de que debe estar respaldado por suficientes garantías legales.

El análisis lo centro en la cobertura legal necesaria y variable en razón de los diferentes derechos y exigencias constitucionales concurrentes. Se subraya que el Reglamento de IA (RIA) de la UE, que sí que regula el uso jurisdiccional de la IA, no sirve como una habilitación legal por sí solo. Ahora bien, sin duda que el RIA implica garantías que deben superponerse con las garantías que obligatoriamente deben ser reguladas por ley, según jurisprudencia como la española (20219) o alemana (2022).

Desde una perspectiva constitucional, analizo y critico la regulación actual de los sistemas automatizados y de IA bajo el Real Decreto-ley 6/2023, que considero insuficiente.

No me entrometo en la robotización judicial y la sustitución del juez humano.   Obvimente nuestras constituciones analógicas parten de la premisa de que son humanos quienes realizan tales funciones jurisdiccionales. El CGPJ español afirma que la potestad jurisdiccional es una función “consustancial y ontológicamente anudada a la naturaleza humana, con independencia, imparcialidad, exclusividad y con exclusivo sometimiento al imperio de la ley” (nº 51)  . El CGPJ afirma una reserva de humanidad y “el derecho a una resolución fundada en Derecho dictada por un Juez o Tribunal, esto es, el derecho a que su caso sea resuelto por un Juez-persona” (nº 164, Conclusión 68).  El tiempo, el legislador y la jurisprudencia dirán hasta dónde llega este presunto derecho y el alcance de la IA en el ámbito de la justicia.

Además, sostengo que solo el Consejo General del Poder Judicial (CGPJ) puede ser la autoridad supervisora de los sistemas de IA jurisdiccionales de alto riesgo en España, debido a su independencia y la separación de poderes, según doctrina del TS y regulación legal en el caso de protección de datos. Ni la Autoridad Española de Supervisión de la Inteligencia Artificial (AESIA) ni la Agencia Española de Protección de Datos (AEPD) cumplen con los requisitos para esta función en el ámbito jurisdiccional.
Espero que te resulte sugerente.

justo sobre el tema de mi última publicación en la que apuesto por la IA en justicia, con garantías, aquí va una descripción rápida -y con mano de Chatgpt- sobre el uso de Chatgpt en la justicia y los lineamientos básicos que deben presidirlo, según la Corte Constitucional Colombiana.

la nota de prensa y resumen de la Corte puede seguirse aquí:

y el acceso a la sentencia, aquí:

a falta de entrar en pormenores, lo más relevante sería este resumen y el texto de los fundamentos clave, 423 y- 424.

Se lo han pasado bien escribiendo la decisión, sin duda. Es como un libro sobre el tema .

La referencia es SENTENCIA T-323 de 2024, CORTE CONSTITUCIONAL -Sala Segunda de Revisión-. Referencia: expediente T-9.301.656. Magistrado sustanciador: Juan Carlos Cortés González

Acción de tutela promovida por Blanca, en nombre y representación de su hijo menor de edad, en contra de la EPS.

Introducción

La decisión examina la integración de la inteligencia artificial, específicamente el uso de ChatGPT 3.5, en el proceso judicial colombiano. Fue algo muy sonado a inicios de 2023

https://www.elcolombiano.com/colombia/juez-de-cartagena-uso-chatgpt-inteligencia-artificial-para-sentencia-AG20262310

Se resuelve ahora la acción de tutela promovida por Blanca en representación de su hijo menor, diagnosticado con Trastorno del Espectro Autista, contra una EPS que se negó a exonerar el cobro de copagos y cuotas moderadoras para los tratamientos necesarios del niño. La controversia se agrava por el uso de IA en la emisión de la sentencia de segunda instancia, lo que plantea preocupaciones sobre la validez del debido proceso y la autonomía judicial.

El juez de segunda instancia utilizó ChatGPT 3.5 para complementar su decisión, generando un debate sobre la potencial vulneración del derecho al debido proceso. La Corte Constitucional analizó si el uso de IA en la motivación judicial podría reemplazar indebidamente la función del juez y si las respuestas generadas por IA podrían estar sesgadas o ser producto de «alucinaciones» propias de estos sistemas.

Consideraciones de la Corte

La Corte determina que, en este caso, no se violó el debido proceso porque la decisión judicial fue tomada antes de la consulta con ChatGPT 3.5, utilizando la IA únicamente como una herramienta complementaria. Sin embargo, la Corte reconoce que el uso de IA en el proceso judicial requiere un marco regulatorio claro para evitar posibles violaciones a los derechos fundamentales.

La Corte subraya la necesidad de desarrollar guías y lineamientos específicos para el uso de herramientas de IA en la administración de justicia. Se subraya también la necesaria capacitación continua para los operadores judiciales en cuanto al uso ético y responsable de estas tecnologías.

La Corte confirma parcialmente la sentencia de segunda instancia, subrayando que, aunque no se encontró una vulneración del debido proceso en este caso específico, el uso de IA en la justicia debe regularse cuidadosamente para garantizar que se respeten los derechos fundamentales de todas las partes involucradas.

Como recuerda un buen colega, entre otras lindezas se afirma que

148. Por último, cabe señalar que, si el sistema judicial colombiano tuviera su propio sistema de IA generativa especializado en jurisprudencia y normativa colombiana e internacional, este podría tener implicaciones positivas para la eficiencia de la labor de los jueces y ayudaría, especialmente, en la materialización del derecho de acceso a la administración de justicia. Ello, en el sentido en que las personas y operadores podrían acceder a la información de forma fácil, ágil y especializada. Por ejemplo, se podría tener acceso a líneas jurisprudenciales actualizadas, compararse casos similares, solicitarse un resumen fácil y comprensible de la normativa que interesa al caso concreto y hacerse análisis de problemas jurídicos y afectaciones a derechos. Todo ello dentro del ámbito propio de estas herramientas, como mecanismos que apoyan y que nunca pueden sustituir la labor humana en el servicio de justicia. Adicionalmente, la transparencia, la protección de datos, el conocimiento de los sesgos por conocer el origen de los datos con los cuales sea entrenada la IA, entre otros conceptos, no se verían afectados o, por lo menos, se reducirían en una gran parte los riesgos, puesto que se trataría de una IA controlada y en funcionamiento por y para la Rama Judicial.

Fundamentos esenciales: 423-424

El fundamento jurídico 423 es relevante en la sentencia, ya que establece los principios que deben guiar el uso de IA en el ámbito judicial y de respeto a los mandatos superiores, en orden a garantizar los derechos fundamentales, en especial el debido proceso, cuando hagan uso de aquellas, y asegurar la independencia y autonomía judiciales, como garantías insustituibles para la vigencia del Estado Social de Derecho y la democracia.

423. De manera particular, la Sala Segunda de Revisión considera esenciales la apropiación y aplicación de los siguientes criterios orientadores en cuanto al uso de herramientas de IA como ChatGPT por parte de los despachos judiciales en el país:

a. Transparencia, entendida como la obligación de evidenciar con claridad y precisión el uso, alcances y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de tales herramientas, que permita a los usuarios e interesados su pleno conocimiento y la posibilidad efectiva de contradicción.

b. Responsabilidad, comprendida como aquella obligación que existe de que el usuario de la herramienta de IA se encuentre capacitado y comprenda los impactos del uso de estas tecnologías, para a su vez dar cuenta del origen, idoneidad y necesidad del uso de la IA y la información suministrada por la misma, la cual debe ser verificada.

c. Privacidad, es aquel deber de custodiar y proteger la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios de la Rama Judicial.

d. No sustitución de la racionalidad humana, como expresión de la imposibilidad ética y jurídica de sustituir la acción y la responsabilidad del individuo de la especie humana en la gestión de las actuaciones y decisiones judiciales.

e. Seriedad y verificación, que implica la obligación de realizar un estricto escrutinio sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente.

f. Prevención de riesgos, como mandato en cuanto aplicar los estándares adecuados de control sobre situaciones que generen riesgo por la aplicación de tecnologías tales, en aspectos como imprecisiones, desactualizaciones, alucinaciones, sesgos, inconsistencias y demás.

g. Igualdad y equidad, en cuanto se erradiquen todas las formas de discriminación relacionadas con la aplicación de sesgos derivada del uso de tales tecnologías y su impacto negativo en la eficacia de los derechos humanos.

h. Control humano, en tanto considerando los anteriores criterios, siempre se permita la realización efectiva de escrutinios sobre las actuaciones y decisiones en que se usen herramientas de IA, mediante el acceso a la debida información y el uso de recursos que deban ser resueltos por autoridades humanas.

i. Regulación ética, que implica el desarrollo de estándares de comportamiento individual que se adecúen a los mandatos superiores y legales y a las pautas razonables para el uso de tales tecnologías por parte de los funcionarios y servidores de la Rama Judicial.

j. Adecuación a buenas prácticas y estándares colectivos, en tanto se apliquen los esquemas razonables que se definan para el funcionamiento de la Rama Judicial, desde su autonomía e independencia, a partir de las definiciones que adopten sus autoridades, tanto en sede de administración como de orientación jurisprudencial.

k. Seguimiento continuo y adaptación, a efecto que el uso de tales tecnologías consulte los avances jurídicos, sociológicos y tecnológicos que se vayan implementando, así como los esquemas de mejora y control que se construyan en forma progresiva.

l. Idoneidad. El uso de las tecnologías de la información y de las comunicaciones en la gestión y trámite de los procesos judiciales y asuntos en curso debe ser adecuado para facilitar y agilizar el acceso a la justicia.

424. También se ordenará al Consejo Superior de la Judicatura que fije unos lineamientos sobre el uso de IA en la Rama Judicial, en los que, como mínimo, tenga en cuenta los puntos que se exponen a continuación:

(i) Las IA no pueden ser usada para sustituir el razonamiento lógico y humano que le compete realizar a cada juez a efectos de interpretar los hechos, valorar las pruebas, motivar y adoptar la decisión, pues ello conllevaría una violación de la garantía del juez natural y al debido proceso probatorio. En las instancias y en sede de revision de tutelas se deberán aplicar controles que eviten la violación del derecho al debido proceso por uso indebido de IA, entre los que se destaca la autrorregulación ética.

(ii) La IA se podrá utilizar en el sistema judicial para los ámbitos de gestión administrativa y documental, así como el de apoyo a la gestión judicial y la corrección y síntesis de textos; en tales eventos, la utilización de estas tecnologías no remplaza la labor esencial que se le ha atribuido al funcionario judicial, sin embargo, en estos casos, se deberán tener las cautelas necesarias para evitar la transgresión de derechos, tales como el habeas data o la intimidad, o que el funcionario judicial pierda la independencia o imparcialidad debido a los sesgos y alucinaciones de la IA.

(iii) Para efecto de lo anterior, se deberán garantizar los principios de transparencia, responsabilidad y privacidad respecto al uso de la IA, conforme a los parámetros ya establecidos con anterioridad.

(iv) Identificar a un humano responsable, es decir, que haya una persona individualizable e identificable a quien se le pueda plantear las preocupaciones relacionadas con las decisiones tomadas y que pueda evaluar las intervenciones realizadas por la IA.

(v) Materializarse un lenguaje claro y comprensible para los seres humanos, sobre las respuestas que genera la IA.

(vi) Lo anterior implica que los jueces, magistrados y demás funcionarios y servidores de la Rama Judicial empleen la autorregulación ética y los autocontroles al momento de apoyarse en IA para la gestión judicial.

(vii) En cualquier caso, es necesario resaltar que el proceso de digitalización de la justicia en Colombia, sean cuales sean los lineamientos que se adopten por el Consejo Superior de la Judicatura, debe hacerse dentro del marco de respeto por los derechos fundamentales y con las garantías para el acceso efectivo y la no vulneración de tales, especialmente el debido proceso, los cuales se sopesen con los riesgos potenciales de cada nueva tecnología en este ámbito y los nuevos usos que se les pueda dar a estas.

(viii) Se adelanten las gestiones necesarias de coordinación con las diferentes autoridades concernidas con el tema de tecnología en el Estado, con el Congreso de la República, el Gobierno nacional, los funcionarios y empleados de la Rama Judicial y las diferentes autoridades públicas, así como agencias internacionales u organismos especializados en herramientas de IA como ChatGPT, para informar y coordinar sobre los requerimientos que demande específicamente la Rama Judicial.

(ix) Se establezca un adecuado sistema de control, seguimiento, alerta, evaluación y mejora en cuanto a las prácticas que impliquen el uso de herramientas de IA como ChatGPT por los despachos judiciales del país y se divulguen sus resultados, como parte de las rendiciones de cuentas a cargo de la Rama Judicial. Se insta al Consejo Superior de la Judicatura para que adopte medidas que le permitan identificar los casos en los que funcionarios judiciales hayan hecho uso de IA en sus decisiones, para que tome las medidas judiciales y administrativas pertinentes.

(x) Igualmente se ordena al Consejo Superior de la Judicatura que, como lo viene haciendo, a través de la Escuela Judicial Rodrigo Lara Bonilla, desarrolle habilidades digitales en los operadores jurídicos (a) desde un enfoque interseccional e interdisciplinario, a través de cursos que permitan comprender y discutir sobre las nuevas tecnologías, en especial sobre las IA; que los temarios (b) sean producto de una construcción colectiva en que se tenga en cuenta a todos los servidores de la Rama Judicial, y (c) que los de formación jurídica sobre IA sean incluidos en el curso concurso para ingresar en la Rama Judicial, así como (d) que se desarrollen proyectos de extensión de despliegue de sistemas de IA de acuerdo con los lineamientos propuestos.

colombIA

un gusto compartir  mi última aportación titulada «Caso Bosco, a la tercera tampoco va la vencida. Mal camino en el acceso los algoritmos públicos» en el Diario La Ley, mayo de 2024. Puedes leerlo completo aquí.
https://ir.uv.es/bLgBg0x
y gracias por retuitear un tuit como éste
A propósito de la tercera denegación de acceso al código fuente de la aplicación BOSCO, solicitada por CIVIO, intento dar respuesta a las siguientes cuestiones:

  • ¿Por qué es fundamental la transparencia en los algoritmos utilizados por la administración pública?
  • ¿Qué implicaciones tiene la sentencia del caso Bosco para la transparencia y la seguridad informática?
  • ¿Por qué motivos esta sentencia deniega el acceso acceso al código fuente de BOSCO?
  • ¿Qué pasos se deben tomar para mejorar la regulación de la transparencia algorítmica en España?

En el comentario señalo la desigual suerte al solicitar información sobre algoritmos públicos en España, con experiencias tanto positivas como negativas. Ya en particular se aborda el caso Bosco, con tres denegaciones de acceso al código fuente del bono social eléctrico, justificadas esencialmente por seguridad informática “travestida” de  propiedad intelectual. Así, efectúo una valoración y crítica a la sentencia del 30 de abril de 2024, de mejorable calidad técnica, aunque con apoyo pericial

Tras esta valoración, vuelvo a la carga respecto de la necesidad de una regulación más robusta y concreta que asegure la transparencia algorítmica y la creación de registros públicos de algoritmos.

La sentencia, y espero que esta aportación, sirva para el necesario debate constructivo sobre la importancia de la transparencia en el uso de algoritmos por parte de la administración pública y la necesidad de mejorarla.

 

Me complace anunciar la publicación del artículo «Criterios éticos de derecho internacional humanitario en el uso de sistemas militares dotados de inteligencia artificial» en la prestigiosa revista Novum Jus, la segunda mejor indexada en Iberoamérica. Este trabajo, en coautoría con  Ángel Gómez de Ágreda, aborda cuestiones cruciales en la intersección de la tecnología, la ética y el derecho internacional.

Esperamos que te interese. No hay prácticamente nada en español sobre el tema y se recoge la mejor documentación y bibliografía internacional existente.
gracias por redifundir un tuit como éste: https://twitter.com/cotino/status/1782372367131357220

En el mismo podrás encontrar algunas respuestas a preguntas como éstas:

  • ¿Cómo pueden los sistemas militares dotados de IA cumplir con el Derecho internacional humanitario?
  • ¿Qué medidas éticas son cruciales al diseñar sistemas militares autónomos?
  • ¿De qué manera afecta la autonomía de las armas letales a la responsabilidad humana en conflictos armados?
  • ¿Cuáles son los desafíos clave para integrar el control humano significativo en los sistemas autónomos militares?
  • ¿Cómo pueden los principios de la IA ética traducirse en protocolos operativos para el uso militar?
  • ¿Qué implicaciones tiene el uso de sistemas autónomos en la doctrina del doble efecto bajo el Derecho Internacional Humanitario?
  • ¿De qué manera pueden los desarrollos recientes en IA militar servir como precedente para futuras regulaciones internacionales?

El estudio profundiza en cómo los sistemas de inteligencia artificial (IA) utilizados en el ámbito militar deben integrarse con los principios de Derecho internacional humanitario. A medida que los sistemas autónomos se vuelven más prevalentes en la defensa, su regulación y ética se torna imperativa. La ética sí que tiene un particular papel en este ámbito, que tan habitualmente escapa al Derecho pro la vía de exclusiones como sucede en el Reglamento de IA de la UE o en el reciente Convenio de IA del Consejo de Europa. En todo caso, el Derecho Internacional Humanitario es preceptivo, pese a que no haya acuerdos para su actualización. En el trabajo proponemos principios éticos específicos para la IA en defensa, subrayando la necesidad de un control humano significativo y el cumplimiento del IDH.

Leer el artículo completo

Un gusto trabajar con Ángel, aunque fuera en agosto ;))

El documento “A pro-innovation approach to AI regulation: government response”, de 6 de febrero  del Gobierno del Reino Unido se produce en el marco de un proceso en primavera y verano de 2023, con los documentos previos de propuestas y estudios regulatorios desde Parlamento UK, presentados. Ahora en febrero de 2024 se da la posición del Gobierno. Esta posición ha estado precedida de una consulta de 33 preguntas al sector interesado y más de 400 respuestas.

Presenta un enfoque pro-innovación para la regulación de la Inteligencia Artificial (IA), destacando la inversión de más de £100 millones para innovaciones en IA y capacidades técnicas regulatorias. Mientras el Reino Unido aplica un enfoque pro-innovación, el Reglamento de la UE busca establecer reglas claras para el uso de la IA en el mercado europeo. El Reino Unido apuesta por un marco regulatorio que fortalezca y se adapte a la industria de IA y el ecosistema regulatorio ya existente. Se proponen cinco principios transversales (Seguridad, transparencia, equidad, responsabilidad y contestabilidad  ) para que los reguladores los interpreten y apliquen por mecanismos de regulación menos estrictos. En todo caso, se propone una entidad central (“New Central Function”) para la coherencia del régimen y abordar brechas regulatorias. Por otro lado, una regulación “fuerte” vendría por la nueva regulación de protección de datos (Data Protection and Digital Information Bill, DPDI) que sustituya al RGPD después del Brexit.

Me permito señalar los elementos más relevantes

  • Enfoque Pro-Innovación y Pro-Seguridad: La se centra en fomentar la innovación garantizando la seguridad y la confianza pública.
  • Inversión y Apoyo: Más de £100 millones destinados a la innovación en IA y el fortalecimiento de las capacidades técnicas de los reguladores.
  • Marco Regulatorio: cinco principios transversales para la interpretación y aplicación por parte de los reguladores existentes en el Reino Unido. Seguridad, transparencia, equidad, responsabilidad y contestabilidad.
  • “New Central Function”: Para traer coherencia al régimen regulatorio y abordar las brechas. Supone la creación de un ente dentro del gobierno destinada a garantizar una aplicación coherente y efectiva de la regulación en materia de inteligencia artificial (IA) a través de diferentes sectores. Esta entidad tendría la tarea de cerrar brechas regulatorias existentes, facilitar la coordinación entre diferentes organismos reguladores, y garantizar que el enfoque hacia la IA en el país sea uniforme y propicie tanto la innovación como la protección de los ciudadanos.
  • Consultas y Coordinación: Las propuestas se dan en buena medida a raíz de las respuestas al proceso de consultas con reguladores, industria, y la sociedad civil, para un enfoque coherente y efectivo.
  • Pasos siguientes: Se afirma que en los próximos meses se realizarán actividades de apoyo de capacidades y coordinación de los reguladores, incluido un nuevo comité directivo con representantes de los gobiernos y los reguladores para coordinar la gobernanza de la IA. Se afirman consultas específicas para evaluar un marco regulador y riesgos específicos sobre interferencia electoral, discriminación, propiedad intelectual o riesgos futuros como la bioseguridad y la alineación de la IA (“AI alignment”). También conversaciones internacionales en próximas Cumbres sobre Seguridad de la IA en la República de Corea y Francia.

Sin duda un tema para seguir.

En entradas anteriores he ido comunicando los textos filtrados y pasos de aprobación del Reglamento IA. Entre estos textos me permito destacar una muy útil versión a tres columnas de las versiones del AIA Act de Comisión, Consejo, Parlamento y la de 2024. También ofrecí una visión rápida de los cambios más relevantes en la versión definitiva acordada.

No obstante, ahora ya tenemos algo público y oficial.

El viernes 9 de febrero el COREPER aprobó el texto del Reglamento UE. El texto había sido filtrado previamente, pero no había una versión oficial y pública.

El martes 13 de febrero y en votación única, las comisiones de Mercado Interior y Libertades Civiles del Parlamento de la UE, votaron favorablemente 71-8 (7 abstenciones) el texto del Reglamento.

Ahora, el texto debe traducirse oficialmente a todos los idiomas de la UE. Asímismo, y esto es importante, será necesaria la renumeración de todos los considerandos y artículos. Igualmente, procederá una aprobación formal por el Parlamento en una sesión plenaria, que se prevé días 10 y 11 de abril. Después, un respaldo final ministerial por el Consejo UE.

El texto de los artículos no puede variar, me comenta un amigo experto que cabría la posibilidad de algún cambio en algún considerando.

Además de estos pasos, hay que subrayar que ya tenemos el último texto público y oficial -no filtrado- del Reglamento IA. A falta del número definitivo de considerandos y artículos, será el texto definitivo del Reglamento.

De postre, me permito disponer una traducción automatizada al español con versión pro AQUÍ, que puede ser bien útil.

un dolçet, que decimos por Valencia ;))

Enlace a la aprobación por el Parlamento 13 de febrero AQUÍ.

Enlace al texto en inglés publicado por el Parlamento AQUÍ.

El Diario la Ley publica mi estudio «La primera sentencia del Tribunal de Justicia de la Unión Europea sobre decisiones automatizadas y sus implicaciones para la protección de datos y el Reglamento de inteligencia artificial»

La sentencia TJUE del 7 de diciembre de 2023 es la primera que aborda centralmente el artículo 22 RGPD relativo a las decisiones automatizadas. En el estudio se analizan los elementos básicos de la misma:  descripción del supuesto; dudas que eleva el órgano jurisdiccional alemán al TJUE; doctrina general y particular que se establecen, en particular sobre lo que es una “decisión individual” y el alcance de la garantía en el supuesto y respecto del margen de regulación nacional sobre el artículo 22. Asimismo, se brinda una valoración general y reflexión sobre las proyecciones que puede tener para el futuro. En este punto, yendo más allá de lo afirmado por la sentencia se aboga por un claro criterio interpretativo que dote de protección a las decisiones parcialmente automatizadas. Igualmente se explica por qué esta cuestión pasa a ser esencial respecto de la aplicación misma del futuro Reglamento del IA de la UE por ser decisivo para considerar si un sistema de IA es o no de alto riesgo.

Espero que te interese. Gracias por redifundir un tuit como éste.

https://twitter.com/cotino/status/1747533167060300038

La Cátedra Unesco Desarrollo-Universidad de Valencia ha financiado el proyecto que he tenido el gusto de dirigir, con el apoyo del Dr. Adrián Palma en la Secretaría. Con destacados expertos hemos realizado una decena de vídeos básicos formativos (40-50 minutos) y una quincena de píldoras (5-10 minutos) de los temas esenciales de la Recomendación de la Unesco de Ética de la Inteligencia artificial de noviembre 2021

La UNESCO siguió un proceso de dos años para elaborar el primer instrumento normativo mundial sobre la ética de la inteligencia artificial en forma de recomendación. Este texto histórico establece valores y principios comunes que guiarán la construcción de la infraestructura jurídica necesaria para garantizar un desarrollo saludable de la IA. Leer el texto de la Recomendación

acceso a lista de reproducción Youtube

Aquí tiene un breve vídeo descriptivo y de presentación del proyecto y contenidos. Espero que le interese. No dude en comunicar al respecto de la iniciativa.

 

Contenidos básicos y también formato “Píldora”:

  • Idoia Salazar (Presidenta de OdiseIA, Universidad CEU-Madrid): “Valores y ética y riesgo en la Recomendación de ética e inteligencia artificial”. Vídeo formativo (45’); “Píldora”
  • Lorenzo Cotino Hueso (Catedrático Derecho Constitucional, Universitat de València, OdiseIA, Director del Proyecto): “Transparencia, explicabilidad, trazabilidad, comunicación y auditabilidad de los algoritmos”. Vídeo formativo (45’); “Píldora”
  • Alba Soriano (Profesora ayudante doctora Derecho Administrativo. Universitat de València): “Equidad y no discriminación, políticas de género”. Vídeo formativo (45’); “Píldora”
  • Andrés Boix Palop (Profesor Titular Derecho Administrativo, Universitat de València) IA en el sector público. políticas, gobernanza y Administración Éticas”. Vídeo formativo (45’); “Píldora”
  • Juan Manuel Belloto (OdiseIA, Director Proyecto GuIA): “Los principios éticos en el sector privado y ciclo de vida de la IA”. Vídeo formativo (45’), “Píldora”
  • Adrián Todolí (Profesor Titular Derecho del Trabajo, Universitat de València): “Economía, trabajo y control laboral empresarial”. Vídeo formativo (45’); “Píldora”
  • Mª Dolores Montero Caro (Profesora Dra. Derecho Constitucional U. Córdoba): “IA4good– Sostenibilidad y ODS”. Vídeo formativo (45’); “Píldora”
  • Adrián Palma Ortigosa (Investigador Doctor Junior Departamento Derecho Administrativo. Universitat de València. OdiseIA. Secretario del Proyecto): “IA e intimidad, protección de datos y seguridad”. Vídeo formativo (45’) ; “Píldora”
  • Jorge Castellanos Claramunt (Profesor ayudante doctor Derecho Constitucional. U. València. OdiseIA): “IA, participación, gobernanza y colaboración”. Vídeo formativo (45’); “Píldora”

“Píldoras” breves:

proyecto “La nueva recomendación de la Unesco sobre la Ética de la inteligencia artificial, los derechos humanos y los ODS”, (Lorenzo Cotino, dir.), de Lorenzo Cotino Hueso (Catedrático Derecho Constitucional, Universitat de València, OdiseIA, Director del Proyecto, www.cotino.es) Cátedra Unesco Educación para el Desarrollo-Vicerrectorado de Cooperación, Universidad de Valencia.

 

Para los que la ven desde fuera puede sorprender lo estresante que es la vida académica. Entre clase y clase, siempre deudores de plazos para entregar el último capítulo o artículo, preparar la próxima conferencia o pedir el próximo proyecto.

Y encima nos pagan por ello. Pues un momento realmente agradable es cuando sale publicado un libro en el que he podido juntar a lo mejor que hay en España en una materia y constituye sin duda una aportación. Y así ha sido con el que acaba de publicarse:

Explotación y regulación del uso del big data e inteligencia artificial para los servicios públicos y la ciudad inteligente que he tenido el gusto de coordinar con mi colega y amigo Adrián Todolí Signes.

si quieres, puedes ayudarnos a difundirlo con un tuit como éste:

https://twitter.com/cotino/status/1486984948120760324

@cotino y @TodoliAdrian coordinan este libro sobre IA, big data en servicios públicos y smart cities, autores y editorial de primera @Tirant_ESP,  saber más… https://www.cotino.es/librobigdata/

Puedes acceder en el siguiente enlace al libro a la web de la editorial

Y en este enlace puedes descargar el índice y la presentación.

Asimismo, como muestra, puedes acceder al capítulo de mi autoría sobre ciberseguridad

El sector público y nuestras ciudades en los próximos años van a un auténtico cambio radical digital. Ello conlleva la explotación de big data especialmente con inteligencia artificial. Pese a sus peligros, no hay marcha atrás, hay que apoyar la innovación, fomentarla, pero también encauzarla y garantizar un diseño para el cumplimiento ético y normativo. Las aportaciones de la obra pretender orientar y apuntalar estos cambios. Para ello se reúne a destacados especialistas y profesionales de diversas disciplinas, desde las instituciones, el sector privado y la academia que analizan las orientaciones a seguir, recomendaciones y estrategias para superar los problemas de la explotación de datos y el uso público de la inteligencia artificial, para conferir ciberseguridad, para el ámbito de salud y para que la colaboración público- privada permita también el cumplimiento normativo. Se examinan usos de las tecnologías disruptivas en el ámbito del empleo, servicios sociales y para el control laboral. Igualmente se reivindican las obligaciones del sector público para proteger las lenguas españolas ante el tsunami de la inteligencia artificial y también se observan las estrategias y avances importantes en Iberoamérica.

El lector dispone de una excelente reflexión de Jorge Castellanos sobre derecho a la ciudad inteligente, en la que se lleva a cabo una relectura de los postulados de Lefebvre con la incidencia del big data y la inteligencia artificial, como especial oportunidad democrática y participativa para nuestras ciudades. Es muy de agradecer la aportación de Antonia Ferrer Sapena y Enrique A. Sánchez Pérez, dos científicos que día a día intentan superar las muchas barreras para la explotación de los datos y en su estudio nos ofrecen estrategias y soluciones. La ciberseguridad es objeto central de atención por quien suscribe y para ello se estudian los estándares, normas y mejores estrategias y medidas de gobernanza para lograrla en el complejo contexto de la smart city. También es un privilegio contar con la colaboración de quienes implantan con seguridad y legalidad los proyectos tecnológicos de nuestras ciudades, desde el sector privado. Así, María Loza nos brinda lecciones aprendidas desde el sector privado para el uso de inteligencia artificial para ciudades inteligentes. Y experiencia de muchos años es la que cuenta Ramón Ferri dirigiendo la oficina de una ciudad inteligente pionera como lo es Valencia. Generosamente relata la implantación de la Plataforma Digital de la Ciudad y otros proyectos relevantes. Íñigo de Miguel es uno de los máximos expertos en España en temas de biosalud y TIC. Nos comparte seis consejos para evitar problemas éticos y jurídicos para el desarrollo de mecanismos de inteligencia artificial por parte de las entidades de salud. Alba Soriano pese a su juventud es uno de los máximos referentes en España sobre el Derecho de la inteligencia artificial con gran proyección internacional. Su aportación en esta obra tiene especial interés. Relata el uso de sistemas automatizados por el servicio público de empleo austriaco y los más que difíciles equilibrios con la igualdad y categorías especiales de datos. Mucho de lo que aprender.

Especialmente sensible es la utilización del big data y la inteligencia artificial para la aplicación de la ley la detección y persecución de ilícitos. Y de hecho es difícil saber ciertamente qué se está haciendo y cómo. Hay que destacar tres estudios al respecto en esta obra. La Comisión Nacional de los Mercados y la Competencia es una Administración especialmente innovadora en nuestro país y Pilar Vega Vicente desde esta institución relata la experiencia que están teniendo, especialmente valiosa. En el ámbito de inspección social y trabajo se cuenta con los más que brillantes y finos análisis jurídicos del coeditor de la obra -Adrián Todolí- y de una referencia del Derecho público en España como Manuel Izquierdo-Carrasco. Ambos analizan el uso de algoritmos, sistemas automatizados e inteligencia artificial por la inspección de trabajo y en el orden social.

Finalmente, es especialmente destacable el análisis -y también reivindicación- que Vicenta Tasa Fuster hace sobre las obligaciones lingüísticas de las administraciones públicas ante la inteligencia artificial. En el tsunami de la inteligencia artificial las lenguas españolas no quedan indemnes -especialmente las lenguas cooficiales- y se hace precisa la acción, recursos e inteligencia humana por nuestros poderes públicos. Se concluye la obra con una mirada a las estrategias de explotación de datos e inteligencia artificial desde la región iberoamericana, ya muy activa, gracias a la aproximación de otro colega -y además amigo-  Marco Emilio Sánchez Acevedo, quien es desde hace años referencia en el Derecho de las TIC y la ciberseguridad en Colombia.

La disrupción tecnológica está suponiendo también una eclosión de literatura especializada. Ello es muy positivo. En cualquier caso, esta obra se distingue entre otras no sólo por la contrastada calidad de sus autores, sino por su especial enfoque hacia el sector público y la ciudad inteligente, algo que sigue sin ser tan habitual en nuestro país. Adrián Todolí y yo mismo estamos orgullosos de coordinar esta monografía que, sin duda, ha de suponer una referencia en español y en España. Y quedaremos especialmente satisfechos si este conocimiento puede apuntalar la transformación digital de nuestras ciudades y del sector público que se va a dar los próximos años.

Gracias.

 

Es un honor sacar adelante este proyecto con el prestigioso Instituto Tecnológico de Informática,  ITI , referente en España y Europa y gracias a una edición tan profesional de Óscar Valle y Daniel Sáez, y también la revisión de Nieves Ruiz. Muchas gracias a todos ellos. La Guía nace a fines de 2019 del proyecto VAIH: DIH en Inteligencia Artificial y ha resultado un documento de más de 100 páginas.

si lo cree oportuno, puede ayudarme con la difusión de este tuit, gracias

EN ESTE ENLACE PUEDE ACCEDER GRATUITAMENTE al texto completo  de la misma con un muy sencillo registro.

También EN ESTE ENLACE PUEDE DESCARGAR EL ÍNDICE directamente. 

Se trata de la Guía de Protección de Datos en IA y Espacios de Datos. Su título es bastante más amplio: Guía para el cumplimiento normativo en la investigación y experimentación con Inteligencia Artificial y tecnologías conexas en Espacios de Innovación con Datos, centrada en privacidad y data governance, ITI, Valencia, 2021, ISBN: 978-84-09-31738-7.

Se intenta aportar un grano de arena a sumar a los ya importantes avances para aclarar y mejorar el marco jurídico de la investigación con datos, algo tan necesario especialmente en el contexto de la IA y las tecnologías conexas o la biomedicina.  

En www.cotino.es puede accederse al texto de otras publicaciones afines, como ésta PUBLICACIÓN sobre datos personales investigación y biomedicina. 

Espero que le interese, gracias.

Contenido básico:

I. Acerca de ITI y su DATA Space

II. Áreas de especial objeto de atención en esta guía

III. ¿Qué normas se aplican?

IV. ¿Cuándo y dónde se aplica la normativa de protección de datos?

V. ¿Qué tipos de datos personales hay que distinguir?

VI. Quién es quién desde la protección de datos y sus obligaciones. La gobernanza de los datos en las organizaciones

VII. Un régimen general más flexible y favorable para la investigación científica

VIII. ¿Cómo deben tratarse los datos en la investigación? los principios del tratamiento de datos

IX. ¿Cuándo se pueden tratar –o ceder- datos? La “legitimación” del tratamiento y la especial flexibilización para el caso de la investigación

X ¿Para qué finalidades se pueden manejar o tratar datos? El uso en la investigación

XI. ¿Qué obligaciones hay que cumplir si se tratan datos y qué medidas hay que adoptar?

XII. Especial atención a la anonimización y seudoanonimización. Una estrategia básica para poder tratar datos para la investigación

XIII. ¿Puedo enviar los datos fuera de España?

XIV. ¿Pueden las personas ejercer derechos y reclamaciones ante las entidades de un ecosistema de investigación i-Spaces como Data Space?

XV. ¿Hay derechos o “propiedad” sobre los datos, el big data o los algoritmos?

XVI. Ética y cumplimiento normativo específico en Inteligencia artificial