Me complace anunciar la publicación de mi artículo «El uso jurisdiccional de la inteligencia artificial: habilitación legal, garantías necesarias y la supervisión por el CGPJ», en la revista Actualidad Jurídica Iberoamericana, nº 21, 2024

Puedes acceder a mi estudio AQUÍ. Se incluye en un excelente monográfico sobre JusticIA digital que reúne ni más ni menos que 22 estudios sobre estos temas, todo muy bien coordinado por Ana Montesinos y Diana Marcos, a quienes agradezco su empeño.

En este estudio quizá obtengas respuestas o al menos te puedes plantear cuestiones como:

  • ¿En qué funciones jurisdiccionales -y no meramente administrativas o procesales- puede utilizarse la IA? ¿De verdad que hay una «reserva de humanidad» que limite el uso de la IA en justicia?
  • ¿Cuáles son las principales carencias de Real Decreto-ley 6/2023 sobre el uso de IA y sistemas automatizados en Justicia, y cómo podrían subsanarse?
  • ¿En qué medida el Reglamento de Inteligencia Artificial de la UE (RIA) es suficiente regulación legal y con garantías para el uso de IA en justicia?
  • ¿Qué papel debería jugar el Consejo General del Poder Judicial (CGPJ) en la supervisión de sistemas de inteligencia artificial de alto riesgo? ¿por qué otras instituciones como la AESIA o la AEPD no son adecuadas para esta función?

Vengo sosteniendo un derecho a la inteligencia artificial (IA) y una consiguiente obligación de implantación por los poderes públicos, también en la Justicia.

Este estudio pretende allanar el camino para la integración de la IA en la función jurisdiccional. También busca asegurar que esta integración se realice respetando y fortaleciendo los derechos fundamentales. Creo firmemente que, aunque es necesario exigir garantías, debemos evitar una resistencia exagerada al uso público de la IA, en este caso en la Justicia. Estoy convencido de que los discursos actuales que cierran la puerta a estas innovaciones serán vistos con nostalgia en el futuro, cuando la tecnología sea una parte integral y confiable del proceso judicial.

En este estudio, defiendo el uso jurisdiccional -no meramente procesal o accesorio- de la IA en el sistema legal español, pero siempre bajo la premisa de que debe estar respaldado por suficientes garantías legales.

El análisis lo centro en la cobertura legal necesaria y variable en razón de los diferentes derechos y exigencias constitucionales concurrentes. Se subraya que el Reglamento de IA (RIA) de la UE, que sí que regula el uso jurisdiccional de la IA, no sirve como una habilitación legal por sí solo. Ahora bien, sin duda que el RIA implica garantías que deben superponerse con las garantías que obligatoriamente deben ser reguladas por ley, según jurisprudencia como la española (20219) o alemana (2022).

Desde una perspectiva constitucional, analizo y critico la regulación actual de los sistemas automatizados y de IA bajo el Real Decreto-ley 6/2023, que considero insuficiente.

No me entrometo en la robotización judicial y la sustitución del juez humano.   Obvimente nuestras constituciones analógicas parten de la premisa de que son humanos quienes realizan tales funciones jurisdiccionales. El CGPJ español afirma que la potestad jurisdiccional es una función “consustancial y ontológicamente anudada a la naturaleza humana, con independencia, imparcialidad, exclusividad y con exclusivo sometimiento al imperio de la ley” (nº 51)  . El CGPJ afirma una reserva de humanidad y “el derecho a una resolución fundada en Derecho dictada por un Juez o Tribunal, esto es, el derecho a que su caso sea resuelto por un Juez-persona” (nº 164, Conclusión 68).  El tiempo, el legislador y la jurisprudencia dirán hasta dónde llega este presunto derecho y el alcance de la IA en el ámbito de la justicia.

Además, sostengo que solo el Consejo General del Poder Judicial (CGPJ) puede ser la autoridad supervisora de los sistemas de IA jurisdiccionales de alto riesgo en España, debido a su independencia y la separación de poderes, según doctrina del TS y regulación legal en el caso de protección de datos. Ni la Autoridad Española de Supervisión de la Inteligencia Artificial (AESIA) ni la Agencia Española de Protección de Datos (AEPD) cumplen con los requisitos para esta función en el ámbito jurisdiccional.
Espero que te resulte sugerente.

justo sobre el tema de mi última publicación en la que apuesto por la IA en justicia, con garantías, aquí va una descripción rápida -y con mano de Chatgpt- sobre el uso de Chatgpt en la justicia y los lineamientos básicos que deben presidirlo, según la Corte Constitucional Colombiana.

la nota de prensa y resumen de la Corte puede seguirse aquí:

y el acceso a la sentencia, aquí:

a falta de entrar en pormenores, lo más relevante sería este resumen y el texto de los fundamentos clave, 423 y- 424.

Se lo han pasado bien escribiendo la decisión, sin duda. Es como un libro sobre el tema .

La referencia es SENTENCIA T-323 de 2024, CORTE CONSTITUCIONAL -Sala Segunda de Revisión-. Referencia: expediente T-9.301.656. Magistrado sustanciador: Juan Carlos Cortés González

Acción de tutela promovida por Blanca, en nombre y representación de su hijo menor de edad, en contra de la EPS.

Introducción

La decisión examina la integración de la inteligencia artificial, específicamente el uso de ChatGPT 3.5, en el proceso judicial colombiano. Fue algo muy sonado a inicios de 2023

https://www.elcolombiano.com/colombia/juez-de-cartagena-uso-chatgpt-inteligencia-artificial-para-sentencia-AG20262310

Se resuelve ahora la acción de tutela promovida por Blanca en representación de su hijo menor, diagnosticado con Trastorno del Espectro Autista, contra una EPS que se negó a exonerar el cobro de copagos y cuotas moderadoras para los tratamientos necesarios del niño. La controversia se agrava por el uso de IA en la emisión de la sentencia de segunda instancia, lo que plantea preocupaciones sobre la validez del debido proceso y la autonomía judicial.

El juez de segunda instancia utilizó ChatGPT 3.5 para complementar su decisión, generando un debate sobre la potencial vulneración del derecho al debido proceso. La Corte Constitucional analizó si el uso de IA en la motivación judicial podría reemplazar indebidamente la función del juez y si las respuestas generadas por IA podrían estar sesgadas o ser producto de «alucinaciones» propias de estos sistemas.

Consideraciones de la Corte

La Corte determina que, en este caso, no se violó el debido proceso porque la decisión judicial fue tomada antes de la consulta con ChatGPT 3.5, utilizando la IA únicamente como una herramienta complementaria. Sin embargo, la Corte reconoce que el uso de IA en el proceso judicial requiere un marco regulatorio claro para evitar posibles violaciones a los derechos fundamentales.

La Corte subraya la necesidad de desarrollar guías y lineamientos específicos para el uso de herramientas de IA en la administración de justicia. Se subraya también la necesaria capacitación continua para los operadores judiciales en cuanto al uso ético y responsable de estas tecnologías.

La Corte confirma parcialmente la sentencia de segunda instancia, subrayando que, aunque no se encontró una vulneración del debido proceso en este caso específico, el uso de IA en la justicia debe regularse cuidadosamente para garantizar que se respeten los derechos fundamentales de todas las partes involucradas.

Como recuerda un buen colega, entre otras lindezas se afirma que

148. Por último, cabe señalar que, si el sistema judicial colombiano tuviera su propio sistema de IA generativa especializado en jurisprudencia y normativa colombiana e internacional, este podría tener implicaciones positivas para la eficiencia de la labor de los jueces y ayudaría, especialmente, en la materialización del derecho de acceso a la administración de justicia. Ello, en el sentido en que las personas y operadores podrían acceder a la información de forma fácil, ágil y especializada. Por ejemplo, se podría tener acceso a líneas jurisprudenciales actualizadas, compararse casos similares, solicitarse un resumen fácil y comprensible de la normativa que interesa al caso concreto y hacerse análisis de problemas jurídicos y afectaciones a derechos. Todo ello dentro del ámbito propio de estas herramientas, como mecanismos que apoyan y que nunca pueden sustituir la labor humana en el servicio de justicia. Adicionalmente, la transparencia, la protección de datos, el conocimiento de los sesgos por conocer el origen de los datos con los cuales sea entrenada la IA, entre otros conceptos, no se verían afectados o, por lo menos, se reducirían en una gran parte los riesgos, puesto que se trataría de una IA controlada y en funcionamiento por y para la Rama Judicial.

Fundamentos esenciales: 423-424

El fundamento jurídico 423 es relevante en la sentencia, ya que establece los principios que deben guiar el uso de IA en el ámbito judicial y de respeto a los mandatos superiores, en orden a garantizar los derechos fundamentales, en especial el debido proceso, cuando hagan uso de aquellas, y asegurar la independencia y autonomía judiciales, como garantías insustituibles para la vigencia del Estado Social de Derecho y la democracia.

423. De manera particular, la Sala Segunda de Revisión considera esenciales la apropiación y aplicación de los siguientes criterios orientadores en cuanto al uso de herramientas de IA como ChatGPT por parte de los despachos judiciales en el país:

a. Transparencia, entendida como la obligación de evidenciar con claridad y precisión el uso, alcances y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de tales herramientas, que permita a los usuarios e interesados su pleno conocimiento y la posibilidad efectiva de contradicción.

b. Responsabilidad, comprendida como aquella obligación que existe de que el usuario de la herramienta de IA se encuentre capacitado y comprenda los impactos del uso de estas tecnologías, para a su vez dar cuenta del origen, idoneidad y necesidad del uso de la IA y la información suministrada por la misma, la cual debe ser verificada.

c. Privacidad, es aquel deber de custodiar y proteger la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios de la Rama Judicial.

d. No sustitución de la racionalidad humana, como expresión de la imposibilidad ética y jurídica de sustituir la acción y la responsabilidad del individuo de la especie humana en la gestión de las actuaciones y decisiones judiciales.

e. Seriedad y verificación, que implica la obligación de realizar un estricto escrutinio sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente.

f. Prevención de riesgos, como mandato en cuanto aplicar los estándares adecuados de control sobre situaciones que generen riesgo por la aplicación de tecnologías tales, en aspectos como imprecisiones, desactualizaciones, alucinaciones, sesgos, inconsistencias y demás.

g. Igualdad y equidad, en cuanto se erradiquen todas las formas de discriminación relacionadas con la aplicación de sesgos derivada del uso de tales tecnologías y su impacto negativo en la eficacia de los derechos humanos.

h. Control humano, en tanto considerando los anteriores criterios, siempre se permita la realización efectiva de escrutinios sobre las actuaciones y decisiones en que se usen herramientas de IA, mediante el acceso a la debida información y el uso de recursos que deban ser resueltos por autoridades humanas.

i. Regulación ética, que implica el desarrollo de estándares de comportamiento individual que se adecúen a los mandatos superiores y legales y a las pautas razonables para el uso de tales tecnologías por parte de los funcionarios y servidores de la Rama Judicial.

j. Adecuación a buenas prácticas y estándares colectivos, en tanto se apliquen los esquemas razonables que se definan para el funcionamiento de la Rama Judicial, desde su autonomía e independencia, a partir de las definiciones que adopten sus autoridades, tanto en sede de administración como de orientación jurisprudencial.

k. Seguimiento continuo y adaptación, a efecto que el uso de tales tecnologías consulte los avances jurídicos, sociológicos y tecnológicos que se vayan implementando, así como los esquemas de mejora y control que se construyan en forma progresiva.

l. Idoneidad. El uso de las tecnologías de la información y de las comunicaciones en la gestión y trámite de los procesos judiciales y asuntos en curso debe ser adecuado para facilitar y agilizar el acceso a la justicia.

424. También se ordenará al Consejo Superior de la Judicatura que fije unos lineamientos sobre el uso de IA en la Rama Judicial, en los que, como mínimo, tenga en cuenta los puntos que se exponen a continuación:

(i) Las IA no pueden ser usada para sustituir el razonamiento lógico y humano que le compete realizar a cada juez a efectos de interpretar los hechos, valorar las pruebas, motivar y adoptar la decisión, pues ello conllevaría una violación de la garantía del juez natural y al debido proceso probatorio. En las instancias y en sede de revision de tutelas se deberán aplicar controles que eviten la violación del derecho al debido proceso por uso indebido de IA, entre los que se destaca la autrorregulación ética.

(ii) La IA se podrá utilizar en el sistema judicial para los ámbitos de gestión administrativa y documental, así como el de apoyo a la gestión judicial y la corrección y síntesis de textos; en tales eventos, la utilización de estas tecnologías no remplaza la labor esencial que se le ha atribuido al funcionario judicial, sin embargo, en estos casos, se deberán tener las cautelas necesarias para evitar la transgresión de derechos, tales como el habeas data o la intimidad, o que el funcionario judicial pierda la independencia o imparcialidad debido a los sesgos y alucinaciones de la IA.

(iii) Para efecto de lo anterior, se deberán garantizar los principios de transparencia, responsabilidad y privacidad respecto al uso de la IA, conforme a los parámetros ya establecidos con anterioridad.

(iv) Identificar a un humano responsable, es decir, que haya una persona individualizable e identificable a quien se le pueda plantear las preocupaciones relacionadas con las decisiones tomadas y que pueda evaluar las intervenciones realizadas por la IA.

(v) Materializarse un lenguaje claro y comprensible para los seres humanos, sobre las respuestas que genera la IA.

(vi) Lo anterior implica que los jueces, magistrados y demás funcionarios y servidores de la Rama Judicial empleen la autorregulación ética y los autocontroles al momento de apoyarse en IA para la gestión judicial.

(vii) En cualquier caso, es necesario resaltar que el proceso de digitalización de la justicia en Colombia, sean cuales sean los lineamientos que se adopten por el Consejo Superior de la Judicatura, debe hacerse dentro del marco de respeto por los derechos fundamentales y con las garantías para el acceso efectivo y la no vulneración de tales, especialmente el debido proceso, los cuales se sopesen con los riesgos potenciales de cada nueva tecnología en este ámbito y los nuevos usos que se les pueda dar a estas.

(viii) Se adelanten las gestiones necesarias de coordinación con las diferentes autoridades concernidas con el tema de tecnología en el Estado, con el Congreso de la República, el Gobierno nacional, los funcionarios y empleados de la Rama Judicial y las diferentes autoridades públicas, así como agencias internacionales u organismos especializados en herramientas de IA como ChatGPT, para informar y coordinar sobre los requerimientos que demande específicamente la Rama Judicial.

(ix) Se establezca un adecuado sistema de control, seguimiento, alerta, evaluación y mejora en cuanto a las prácticas que impliquen el uso de herramientas de IA como ChatGPT por los despachos judiciales del país y se divulguen sus resultados, como parte de las rendiciones de cuentas a cargo de la Rama Judicial. Se insta al Consejo Superior de la Judicatura para que adopte medidas que le permitan identificar los casos en los que funcionarios judiciales hayan hecho uso de IA en sus decisiones, para que tome las medidas judiciales y administrativas pertinentes.

(x) Igualmente se ordena al Consejo Superior de la Judicatura que, como lo viene haciendo, a través de la Escuela Judicial Rodrigo Lara Bonilla, desarrolle habilidades digitales en los operadores jurídicos (a) desde un enfoque interseccional e interdisciplinario, a través de cursos que permitan comprender y discutir sobre las nuevas tecnologías, en especial sobre las IA; que los temarios (b) sean producto de una construcción colectiva en que se tenga en cuenta a todos los servidores de la Rama Judicial, y (c) que los de formación jurídica sobre IA sean incluidos en el curso concurso para ingresar en la Rama Judicial, así como (d) que se desarrollen proyectos de extensión de despliegue de sistemas de IA de acuerdo con los lineamientos propuestos.

colombIA

un gusto compartir  mi última aportación titulada «Caso Bosco, a la tercera tampoco va la vencida. Mal camino en el acceso los algoritmos públicos» en el Diario La Ley, mayo de 2024. Puedes leerlo completo aquí.
https://ir.uv.es/bLgBg0x
y gracias por retuitear un tuit como éste
A propósito de la tercera denegación de acceso al código fuente de la aplicación BOSCO, solicitada por CIVIO, intento dar respuesta a las siguientes cuestiones:

  • ¿Por qué es fundamental la transparencia en los algoritmos utilizados por la administración pública?
  • ¿Qué implicaciones tiene la sentencia del caso Bosco para la transparencia y la seguridad informática?
  • ¿Por qué motivos esta sentencia deniega el acceso acceso al código fuente de BOSCO?
  • ¿Qué pasos se deben tomar para mejorar la regulación de la transparencia algorítmica en España?

En el comentario señalo la desigual suerte al solicitar información sobre algoritmos públicos en España, con experiencias tanto positivas como negativas. Ya en particular se aborda el caso Bosco, con tres denegaciones de acceso al código fuente del bono social eléctrico, justificadas esencialmente por seguridad informática “travestida” de  propiedad intelectual. Así, efectúo una valoración y crítica a la sentencia del 30 de abril de 2024, de mejorable calidad técnica, aunque con apoyo pericial

Tras esta valoración, vuelvo a la carga respecto de la necesidad de una regulación más robusta y concreta que asegure la transparencia algorítmica y la creación de registros públicos de algoritmos.

La sentencia, y espero que esta aportación, sirva para el necesario debate constructivo sobre la importancia de la transparencia en el uso de algoritmos por parte de la administración pública y la necesidad de mejorarla.

 

Me complace anunciar la publicación del artículo «Criterios éticos de derecho internacional humanitario en el uso de sistemas militares dotados de inteligencia artificial» en la prestigiosa revista Novum Jus, la segunda mejor indexada en Iberoamérica. Este trabajo, en coautoría con  Ángel Gómez de Ágreda, aborda cuestiones cruciales en la intersección de la tecnología, la ética y el derecho internacional.

Esperamos que te interese. No hay prácticamente nada en español sobre el tema y se recoge la mejor documentación y bibliografía internacional existente.
gracias por redifundir un tuit como éste: https://twitter.com/cotino/status/1782372367131357220

En el mismo podrás encontrar algunas respuestas a preguntas como éstas:

  • ¿Cómo pueden los sistemas militares dotados de IA cumplir con el Derecho internacional humanitario?
  • ¿Qué medidas éticas son cruciales al diseñar sistemas militares autónomos?
  • ¿De qué manera afecta la autonomía de las armas letales a la responsabilidad humana en conflictos armados?
  • ¿Cuáles son los desafíos clave para integrar el control humano significativo en los sistemas autónomos militares?
  • ¿Cómo pueden los principios de la IA ética traducirse en protocolos operativos para el uso militar?
  • ¿Qué implicaciones tiene el uso de sistemas autónomos en la doctrina del doble efecto bajo el Derecho Internacional Humanitario?
  • ¿De qué manera pueden los desarrollos recientes en IA militar servir como precedente para futuras regulaciones internacionales?

El estudio profundiza en cómo los sistemas de inteligencia artificial (IA) utilizados en el ámbito militar deben integrarse con los principios de Derecho internacional humanitario. A medida que los sistemas autónomos se vuelven más prevalentes en la defensa, su regulación y ética se torna imperativa. La ética sí que tiene un particular papel en este ámbito, que tan habitualmente escapa al Derecho pro la vía de exclusiones como sucede en el Reglamento de IA de la UE o en el reciente Convenio de IA del Consejo de Europa. En todo caso, el Derecho Internacional Humanitario es preceptivo, pese a que no haya acuerdos para su actualización. En el trabajo proponemos principios éticos específicos para la IA en defensa, subrayando la necesidad de un control humano significativo y el cumplimiento del IDH.

Leer el artículo completo

Un gusto trabajar con Ángel, aunque fuera en agosto ;))

El documento “A pro-innovation approach to AI regulation: government response”, de 6 de febrero  del Gobierno del Reino Unido se produce en el marco de un proceso en primavera y verano de 2023, con los documentos previos de propuestas y estudios regulatorios desde Parlamento UK, presentados. Ahora en febrero de 2024 se da la posición del Gobierno. Esta posición ha estado precedida de una consulta de 33 preguntas al sector interesado y más de 400 respuestas.

Presenta un enfoque pro-innovación para la regulación de la Inteligencia Artificial (IA), destacando la inversión de más de £100 millones para innovaciones en IA y capacidades técnicas regulatorias. Mientras el Reino Unido aplica un enfoque pro-innovación, el Reglamento de la UE busca establecer reglas claras para el uso de la IA en el mercado europeo. El Reino Unido apuesta por un marco regulatorio que fortalezca y se adapte a la industria de IA y el ecosistema regulatorio ya existente. Se proponen cinco principios transversales (Seguridad, transparencia, equidad, responsabilidad y contestabilidad  ) para que los reguladores los interpreten y apliquen por mecanismos de regulación menos estrictos. En todo caso, se propone una entidad central (“New Central Function”) para la coherencia del régimen y abordar brechas regulatorias. Por otro lado, una regulación “fuerte” vendría por la nueva regulación de protección de datos (Data Protection and Digital Information Bill, DPDI) que sustituya al RGPD después del Brexit.

Me permito señalar los elementos más relevantes

  • Enfoque Pro-Innovación y Pro-Seguridad: La se centra en fomentar la innovación garantizando la seguridad y la confianza pública.
  • Inversión y Apoyo: Más de £100 millones destinados a la innovación en IA y el fortalecimiento de las capacidades técnicas de los reguladores.
  • Marco Regulatorio: cinco principios transversales para la interpretación y aplicación por parte de los reguladores existentes en el Reino Unido. Seguridad, transparencia, equidad, responsabilidad y contestabilidad.
  • “New Central Function”: Para traer coherencia al régimen regulatorio y abordar las brechas. Supone la creación de un ente dentro del gobierno destinada a garantizar una aplicación coherente y efectiva de la regulación en materia de inteligencia artificial (IA) a través de diferentes sectores. Esta entidad tendría la tarea de cerrar brechas regulatorias existentes, facilitar la coordinación entre diferentes organismos reguladores, y garantizar que el enfoque hacia la IA en el país sea uniforme y propicie tanto la innovación como la protección de los ciudadanos.
  • Consultas y Coordinación: Las propuestas se dan en buena medida a raíz de las respuestas al proceso de consultas con reguladores, industria, y la sociedad civil, para un enfoque coherente y efectivo.
  • Pasos siguientes: Se afirma que en los próximos meses se realizarán actividades de apoyo de capacidades y coordinación de los reguladores, incluido un nuevo comité directivo con representantes de los gobiernos y los reguladores para coordinar la gobernanza de la IA. Se afirman consultas específicas para evaluar un marco regulador y riesgos específicos sobre interferencia electoral, discriminación, propiedad intelectual o riesgos futuros como la bioseguridad y la alineación de la IA (“AI alignment”). También conversaciones internacionales en próximas Cumbres sobre Seguridad de la IA en la República de Corea y Francia.

Sin duda un tema para seguir.

En entradas anteriores he ido comunicando los textos filtrados y pasos de aprobación del Reglamento IA. Entre estos textos me permito destacar una muy útil versión a tres columnas de las versiones del AIA Act de Comisión, Consejo, Parlamento y la de 2024. También ofrecí una visión rápida de los cambios más relevantes en la versión definitiva acordada.

No obstante, ahora ya tenemos algo público y oficial.

El viernes 9 de febrero el COREPER aprobó el texto del Reglamento UE. El texto había sido filtrado previamente, pero no había una versión oficial y pública.

El martes 13 de febrero y en votación única, las comisiones de Mercado Interior y Libertades Civiles del Parlamento de la UE, votaron favorablemente 71-8 (7 abstenciones) el texto del Reglamento.

Ahora, el texto debe traducirse oficialmente a todos los idiomas de la UE. Asímismo, y esto es importante, será necesaria la renumeración de todos los considerandos y artículos. Igualmente, procederá una aprobación formal por el Parlamento en una sesión plenaria, que se prevé días 10 y 11 de abril. Después, un respaldo final ministerial por el Consejo UE.

El texto de los artículos no puede variar, me comenta un amigo experto que cabría la posibilidad de algún cambio en algún considerando.

Además de estos pasos, hay que subrayar que ya tenemos el último texto público y oficial -no filtrado- del Reglamento IA. A falta del número definitivo de considerandos y artículos, será el texto definitivo del Reglamento.

De postre, me permito disponer una traducción automatizada al español con versión pro AQUÍ, que puede ser bien útil.

un dolçet, que decimos por Valencia ;))

Enlace a la aprobación por el Parlamento 13 de febrero AQUÍ.

Enlace al texto en inglés publicado por el Parlamento AQUÍ.

En el ámbito digital, la libertad de expresión se encuentra en una encrucijada crucial, con tendencias preocupantes en España y Europa. Recientemente he publicado el artículo «La primera sentencia general del Tribunal Constitucional sobre la libertad de expresión e información en Internet. Seguimos pendientes de muchos temas clave para el futuro”,  en el que aprovecho para revisar la jurisprudencia española y europea en la materia,

aquí ACCESO A TEXTO COMPLETO

ahí se formulan muchas preguntas a las que se dan ( o se intenta) algunas respuestas:

  • ¿Cómo ha evolucionado el tratamiento de las libertades informativas en el ámbito digital por parte de los tribunales españoles?
  • ¿En qué aspectos específicos se percibe la falta de liderazgo del Tribunal Constitucional español en comparación con su homólogo estadounidense?
  • ¿Cuáles son las decisiones más controvertidas del TEDH en materia de libertades digitales y cómo han impactado en la jurisprudencia europea?
  • ¿Cómo han contribuido las decisiones del Tribunal de Justicia de la Unión Europea en la configuración del actual panorama de las libertades informativas en internet?
  • ¿Cuál ha sido el enfoque del Tribunal Constitucional español respecto a las libertades informativas en internet y qué críticas ha recibido?
  • ¿Qué aspectos clave podrían haberse desarrollado más en la sentencia 8/2022 del Tribunal Constitucional español?
  • ¿Cuáles son las principales incógnitas que el Tribunal Constitucional aún debe despejar en relación con las libertades informativas en internet?
  • ¿Cómo ha contribuido la sentencia del Tribunal Supremo a fortalecer las libertades informativas en internet y por qué se considera un hito?

Espero que te guste esta invitación a reflexionar sobre el futuro de nuestras libertades digitales.
Y sobre la peligrosa deriva del TEDH, concretamente dediqué un artículo (ACCESO AQUÍ)
“Menos libertad de expresión en internet: el peligroso endurecimiento del TEDH sobre la responsabilidad de moderación de contenidos y discurso del odio”, en Revista de Derecho Digital e innovación, Aranzadi La Ley, número 16,  2023.

se ha filtrado por fin el texto del futuro reglamento de IA, además de aportar una información muy interesante sobre la negociación del mismo y sus dificultades.

recomiendo leer este hilo (muy bien informado, de quien ha filtrado)

https://twitter.com/BertuzLuca/status/1749326217612820558

Como es sabido se adoptó un acuerdo político sobre el Reglamento el 9 de diciembre de 2023 (nota de prensa del Consejo) , pero sin texto concreto.

En enero se ha filtrado una versión del Reglamento muy útil a cuatro columnas comparativa de los textos. la dispongo aquí: https://links.uv.es/FJSAw4c

también ha aparecido la versión consolidada de la última versión del texto, en inglés, puedes acceder aquí a la versión que dispongo en español traducida automáticamente con una versión pro. AQUÍ  la tienes.

en inglés (que es como lo han filtrado), el texto AQUÍ

así, de urgencia, me atrevo a subrayar los cambios más relevantes a primera vista:

-Se confirman los nuevos estudios de impacto del artículo 29 bis.

-Se confirman los nuevos derechos de los nuevos artículo 68. -También, respecto de modelos fundacionales, entre otras, las nuevas obligaciones del artículo 28 ter, de las que se dice que será punto de objeción importante de Francia y se critica que acabará con los modelos fundacionales disponibles en la UE.

-Se confirma asimismo la independencia y neutralidad de la autoridad de supervisión, lo cual inclumpliría la AESIA según su actual regulación.

-También se confirma que los antiguos “usuarios” pasan a ser “deployers”, implementadores.

Por último, siguiendo el hilo de tuit, es interesante contextualizar que según comenta, el documento fue distribuido a los países de la UE el domingo, previo a su discusión el miércoles en el Grupo de Trabajo de Telecomunicaciones, un órgano técnico del Consejo de la UE, y su formalización por los embajadores (es decir, el COREPER) el 2 de febrero. Así, señala que el cronograma es ajustado y los delegados no dispondrán de tiempo suficiente para revisar el documento completo, debiendo enfocarse en los aspectos más críticos. Francia explora con otros países la posibilidad de crear una minoría de bloqueo. París aspira a postergar la votación del COREPER, buscando obtener ciertas concesiones en el documento. En el COREPER, se solicitará a los gobiernos europeos emitir un veredicto afirmativo o negativo, dado que la presidencia belga no admite comentarios o reservas en esta etapa avanzada. Hasta el momento, París no ha logrado formar una minoría de bloqueo, pero se espera mayor claridad cuando los estados miembros presenten sus comentarios técnicos. No obstante, si Francia no consigue concesiones en esta etapa, persistirá en su empeño por influir en la implementación de la ley de IA, especialmente en cuanto a la legislación secundaria se refiere, considerando que el asunto sigue siendo de máxima prioridad nacional.

El Diario la Ley publica mi estudio «La primera sentencia del Tribunal de Justicia de la Unión Europea sobre decisiones automatizadas y sus implicaciones para la protección de datos y el Reglamento de inteligencia artificial»

La sentencia TJUE del 7 de diciembre de 2023 es la primera que aborda centralmente el artículo 22 RGPD relativo a las decisiones automatizadas. En el estudio se analizan los elementos básicos de la misma:  descripción del supuesto; dudas que eleva el órgano jurisdiccional alemán al TJUE; doctrina general y particular que se establecen, en particular sobre lo que es una “decisión individual” y el alcance de la garantía en el supuesto y respecto del margen de regulación nacional sobre el artículo 22. Asimismo, se brinda una valoración general y reflexión sobre las proyecciones que puede tener para el futuro. En este punto, yendo más allá de lo afirmado por la sentencia se aboga por un claro criterio interpretativo que dote de protección a las decisiones parcialmente automatizadas. Igualmente se explica por qué esta cuestión pasa a ser esencial respecto de la aplicación misma del futuro Reglamento del IA de la UE por ser decisivo para considerar si un sistema de IA es o no de alto riesgo.

Espero que te interese. Gracias por redifundir un tuit como éste.

https://twitter.com/cotino/status/1747533167060300038

Queridas-os, (feliz 2024 y demás) es una alegría señalar que acaba de salir el libro que he coordinado con J. Castellanos Algoritmos abiertos y que no discriminen en el sector público, Tirant lo Blanch, con estudios fantásticos de teoría y práctica.

Tienes disponible el Índice y presentación en https://links.uv.es/p29lR70

bajo pongo el listado de autoras-es de renombre.

si te interesa el tema, una versión que condensa algunos de los contenidos del libro, puede verse en los dos trabajos que he publicado también este mes:

Artículo “Transparencia de la inteligencia artificial pública: marco legal, desafíos y propuestas”, en Actualidad Administrativa nº 12, 2023, La Ley, 15 diciembre de 2023.

Artículo “Implantando la transparencia y los registros públicos de algoritmos. La experiencia pionera en la Comunidad Valenciana” en L. Cotino Hueso y J. Castellanos (coords.), Revista Valenciana d’Estudis

y en concreto sobre discriminación, este año salió publicado el trabajo que más me ha costado en los útimos años, «Discriminación, sesgos e igualdad de la inteligencia artificial en el sector público«, en Gamero Casado, Eduardo, (Dir.), Inteligencia artificial y sector público: retos, límites y medios, Tirant lo Blanch, Valencia, 2023, acceso capítulo. Acceso obra

a todo puede accederse en www.cotino.es

gracias por tu interés y por difundir un tuit como éste:

https://twitter.com/cotino/status/1744263665186975820

autoras y autores:

  • Pere Simón Castellano, Profesor Titular de Derecho Constitucional UNIR
  • Marco Emilio Sánchez Acevedo, Docente e investigador de la Universidad Católica de Colombia
  • Rubén Martínez Gutiérrez, Profesor Titular de Derecho Administrativo Universidad de Alicante
  • Michael Donaldson Carbón Comisionado de Innovación Digital. Ayuntamiento de Barcelona
  • Paula Boet Serrano Responsable de derechos digitales. Ayuntamiento de Barcelona
  • Lorenzo Cotino Hueso, Alba Soriano Arnanz, Jorge Castellanos, Raquel Valle Escolano y Adrián Palma Ortigosa, de la Universitat de València
  • Rosa Cernada Badía Profesora de Derecho Administrativo Universidad Católica de Valencia
  • Joan Guanyabens Director Fundació TIC Salut i Social