La Fiscalía ignora todo lo relativo a la Inteligencia Artificial pese a las evidencias de que ya se está usando por algunos fiscales

Información
Corresponsal_Madrid 04 Julio 2023
social youtube xornalgalicia   feed-image

@miguelgallardo Dr. (PhD) Ing. Miguel Gallardo PERITO Tel.  (+34) 902998352 E-mail: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

@APEDANICA Asociación APEDANICA con registro del Ministerio del Interior www.cita.es/apedanica.pdf

https://cita.es/fiscales-chatgpt-reponiendo-justificante.pdf 

Fiscal General del Estado FGE, Álvaro García Ortiz, por recurso de reposición ETP/CM-18/2023 en https://www.miguelgallardo.es/fiscales-chatgpt-reponiendo.pdf 

Dr. Ing. Miguel Ángel Gallardo Ortiz PhD, también en representación de APEDANICA - Asociación para la Prevención y Estudio de Delitos, Abusos y Negligencias en Informática y Comunicaciones Avanzadas, con Teléfono: +34902998352 y E-mail: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.  por la ETP/CM-18/2023 firmada con fecha 2.5.2023 por la Fiscal de Sala Jefa de la Unidad de Apoyo, Esmeralda Rasillo López, resolución que puede verse publicada íntegra en 

 

https://www.cita.es/fiscales-chatgpt-reponible.pdf 

como mejor proceda presento recurso de reposición con estas alegaciones:

 

La resolución que se recurre niega que la Fiscalía disponga de cualquier tipo de “información sobre todo posible uso por fiscales, autorizados o no, del ChatGPT de OpenAI u otras aplicaciones como IBM Watson ROSS, Google Assistant, Amazon Alexa, Microsoft Cortana, Apple Siri u otras AI distintas capaces de ofrecer Inteligencia Artificial para cualquier propósito o finalidad”. Pero en esa resolución se ignoran todas las referencias que se ofrecen en la solicitud de transparencia, varias de ellas obtenidas del Web de la Fiscalía General del Estado FGE y pueden encontrarse buscando en Google así:

site:fiscal.es "inteligencia artificial"

https://www.google.com/search?q=site%3Afiscal.es+%22inteligencia+artificial%22

 

En nuestra solicitud referenciábamos expresamente lo siguiente

https://www.fiscal.es/memorias/memoria2021/FISCALIA_SITE/capitulo_III/cap_III_3_5.html

Capítulo III. FISCALES COORDINADORES Y DELEGADOS ...

La Fiscalía está trabajando para disponer de un servidor, con el fin de que se puedan volver a grabar cuestionarios de manera online, así como asistencia técnica para el mantenimiento informático del mismo. En ese mismo servidor se tiene previsto instalar el aplicativo predictivo en casos sin esclarecer (denominado «PerfilNet.Pyros»), verdadero objetivo de este proyecto. El agente cumplimentaría un sencillo formulario a través de Internet con los datos del incendio que está investigando y el sistema le informaría inmediatamente de las características principales del tipo de persona que lo suele cometer (características sociodemográficas, criminológicas, geográficas, etc.), lo que podría suponer una pista a utilizar durante las pesquisas. Además, este aplicativo está construido empleando un procedimiento de inteligencia artificial denominado redes bayesianas, que tiene capacidad de auto-aprendizaje, es decir, el algoritmo se iría perfeccionando en sus predicciones según se fuesen incluyendo nuevos casos esclarecidos. (fin de la cita textual)

 

Nos parece gravísimo que la resolución de la Fiscal de Sala Jefa de la Unidad de Apoyo, Esmeralda Rasillo López, ignore por completo esa información tan relevante y tan directamente relacionada con lo solicitado. Nos preguntamos qué otras aplicaciones de AI ya utilizadas también han sido ignoradas.

 

La resolución que se recurre dice que “la competencia para proveer a los Fiscales de las herramientas informáticas para el ejercicio de sus funciones corresponde al Ministerio de Justicia y a las Comunidades Autónomas que tienen transferidas las competencias…”. Esto significa que, según la Fiscal de Sala Jefa de la Unidad de Apoyo, Esmeralda Rasillo López, cada Comunidad Autónoma puede dotar a cada fiscal de todo lo que considere oportuno, o denegarlo, sin conocimiento ni constancia alguna de ningún tipo por parte de la Fiscalía General del Estado. Si efectivamente en una Comunidad Autónoma los fiscales pueden utilizar cualquier sistema de Inteligencia Artificial, pero en otras Comunidades Autónomas no, el problema es mucho mayor de lo que podíamos imaginar cuando solicitamos transparencia.

 

Sin perjuicio de lo solicitado y lo aquí recurrido en reposición, entendemos que las Consejerías de las Comunidades Autónomas con las competencias transferidas en materia de Justicia deben informar con toda transparencia de lo que en cada caso utilizan los fiscales relacionado con la Inteligencia Artificial, pero al menos, que le conste todo ello al Fiscal General del Estado.

 

En este sentido, estamos detectando publicidad de empresas que se jactan de proporcionar a jueces y fiscales sistemas con inteligencia artificial. Por ejemplo, “El Ministerio de Justicia licencia DigaLaw X  Unos 3000 Jueces, Magistrados, Fiscales y Letrados escribirán sus escritos con la voz” y nos resulta especialmente sospechoso lo que se publicita (cita textual) en

https://www.digalawx.com/pages/quienes-somos-1  

del Acuerdo con la Asociación de Fiscales, la única del sector, también para la donación de una treintena de licencias de DigaLaw X "llave en mano" al igual que lo publicitado como Acuerdo con la Asociación Profesional de la Magistratura - APM, la mayor del sector y el Acuerdo con Foro Judicial Independiente - FJI. En APEDANICA debemos ser prudentes, pero estamos muy preocupados por la ingenuidad de las autoridades y la dependencia tecnológica que llega a crearse en instituciones públicas, como la Fiscalía, hacia herramientas que acaban por controlar, en tiempo real, el uso que hacen autoridades de la inteligencia artificial cuyos datos y metadatos acaban en manos de organizaciones que compran y venden información sensible.

 

Repetimos que nuestros muy modestos recursos materiales, pero con muy firmes acciones administrativas y judiciales, y la información que vamos recopilando con enormes esfuerzos y requerimientos de transparencia a muy diversas instituciones, están a la entera disposición de los funcionarios públicos competentes. En este sentido, recomendamos leer lo siguiente:

 

https://www.miguelgallardo.es/codigo/inteligencia-artificial-firmado.pdf https://cita.es/colegio-inteligencia-artificial 

Al Colegio (Corporación Profesional de Derecho Público)

Solicitud publicada en https://cita.es/codigo/inteligencia-artificial.pdf 

que incluye el ejercicio del derecho de transparencia y control del Gobierno en

reclamación publicada en https://www.miguelgallardo.es/gobierno-chatgpt-transparencia.pdf 

https://cita.es/gobierno-chatgpt-hacienda.pdf https://cita.es/gobierno-chatgpt-aepd.pdf 

https://cita.es/gobierno-chatgpt-firmado.pdf  https://cita.es/gobierno-chatgpt-justificante.pdf 

por solicitud de TRANSPARENCIA en https://www.miguelgallardo.es/gobierno-chatgpt.pdf 

así como la estimación positiva de la Presidencia a nuestra reclamación al CTBG en

https://cita.es/chatgpt-gubernamental-presidencia.pdf 

 

De las diversas Administraciones Públicas hasta ahora hemos conseguido varias respuestas (muy discutibles y siempre ampliables y actualizables) entre las que destaca la del MINISTERIO DE ASUNTOS ECONÓMICOS Y TRANSFORMACIÓN DIGITAL por la SECRETARÍA DE ESTADO DE DIGITALIZACIÓN E INTELIGENCIA ARTIFICIAL que ya está publicada en:

https://cita.es/chatgpt-gubernamental-errores-omisiones.pdf

siendo también relevantes las que vamos recibiendo así:

https://cita.es/chatgpt-gubernamental-ciencia.pdf

https://cita.es/chatgpt-gubernamental-defensa.pdf 

https://cita.es/chatgpt-gubernamental-derechos-sociales.pdf

https://cita.es/chatgpt-gubernamental-hacienda.pdf

https://cita.es/chatgpt-gubernamental-patrimonio.pdf

https://cita.es/chatgpt-gubernamental-presidencia.pdf

https://cita.es/chatgpt-gubernamental-trabajo.pdf

https://cita.es/chatgpt-gubernamental-vicepresidencia.pdf 

https://cita.es/chatgpt-gubernamental.pdf 

 

Lamentablemente, si hubiera que examinar a quienes han firmado todos esos documentos públicos, y todos perfectamente publicables, todos deberían ser suspendidos por falta del nivel mínimo exigible. Pero mucho peor aún que la ignorancia es el conflicto de intereses y la dependencia encubierta hacia organizaciones internacionales que ponen en riesgo su función pública. Tenemos bien fundadas sospechas de que hasta el Centro Nacional de Inteligencia CNI y el Centro Criptológico Nacional CCN están siendo ingenuos en la Estrategia Nacional de Inteligencia Artificial (ENIA) para el periodo 2021-2023 (dotada con 600 millones de euros para dicho periodo). En todo caso, el Ministerio Fiscal debiera estar mucho más atento y mejor informado sobre el uso de todo tipo de inteligencias artificiales por parte de funcionarios públicos en todas las Administraciones Públicas. En este sentido volvemos a señalar la responsabilidad de la Agencia Española de Protección de Datos AEPD, de la que es directora Mar España Martí, secretaria general Mónica Bando Munugarren y subdirectora de Inspección de Datos Olga Pérez Sanjuán en todo cuanto ya ha sido denunciado y consta en el EXP202304409 según se comprende leyendo https://cita.es/aepd-chatgpt-acuse.pdf 

 

Por lo expuesto, se SOLICITA que se tenga por presentado este recurso de reposición reiterando todo cuanto ya consta en la ETP/CM-18/2023 y se proporcione toda la información que la Fiscalía General del Estado FGE tiene, o debiera de tener y debe requerir sobre las relaciones, y la de los fiscales con sus asociaciones y representantes sobre las Inteligencias Artificiales, sin perjuicio ni renuncia al ejercicio de cualquier otro derecho o acción en la fecha de registro de este PDF que consta de 18 páginas, reiterando todo lo anterior. 

@miguelgallardo Dr. (PhD) Ing. Miguel Gallardo PERITO Tel.  (+34) 902998352 E-mail: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

@APEDANICA Asociación APEDANICA con registro del Ministerio del Interior www.cita.es/apedanica.pdf

https://cita.es/fiscales-chatgpt-firmado.pdf  https://cita.es/fiscales-chatgpt-justificante.pdf 

Fiscalía General del Estado FGE, Criminalidad Informática e Inspección Solicitud de TRANSPARENCIA en https://www.miguelgallardo.es/fiscales-chatgpt.pdf  

 

Dr. Ing. Miguel Ángel Gallardo Ortiz PhD, también en representación de APEDANICA - Asociación para la Prevención y Estudio de Delitos, Abusos y Negligencias en Informática y Comunicaciones Avanzadas, por lo dispuesto en la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno (que normaliza esta esta solicitud), así como por los arts. 9, 14, 20, 105, 120 y especialmente por el art. 124 de la Constitución Española, como mejor proceda, SOLICITAMOS:

 

Información sobre todo posible uso por fiscales, autorizados o no, del ChatGPT de OpenAI u otras aplicaciones como IBM Watson ROSS, Google Assistant, Amazon Alexa, Microsoft Cortana, Apple Siri u otras AI distintas capaces de ofrecer Inteligencia Artificial para cualquier propósito o finalidad.

 

Información lo más precisa y actualizada que sea posible sobre pago con fondos públicos de licencias o versiones Plus o Premium de ChatGPT de OpenAI u otras aplicaciones AI utilizadas, o probadas, o adquiridas alguna vez, sea quien fuere quien las pagó, o prestó o regaló u ofreció a algún fiscal.

 

Estadística y descripción de todos los textos de fiscales en los que haya alguna relación o palabras o ideas o referencias en los que se haya utilizado alguna aplicación de Inteligencia Artificial, con el mayor detalle posible, prescindiendo de todo dato personal protegible, pero precisando cuanto pueda ser relevante para cualquier tipo de recurso, y los casos en que se recurrió o citó una resolución alegando que se utilizó AI indebidamente.

 

Aunque la Ley 19/2013 no requiere justificación alguna, en aras de la eficacia pero sin renunciar a la información procedente de cualquier otra fuente de contraste, o para evidenciar ignorancia negligente, y además, por la convicción práctica de que la mejor manera de fundamentar una solicitud de transparencia es ofrecerla también adjuntamos otra solicitud registrada con REGAGE23e00021958215 en la que nos dirigimos a la Presidencia del Gobierno cuestionando el uso gubernamental de las aplicaciones de Inteligencia Artificial, con especial interés en ChatGPT.

 

Existen indicios racionales del uso de inteligencia artificial por fiscales, e incluso de la promoción de algunas aplicaciones en Fiscalías. Dentro del web de la FGE vemos

Webinar con Pedro José Garrido Chamorro - Fiscal.es

... impacto en el funcionamiento de la oficina judicial y fiscal y en el uso de la inteligencia artificial para la toma de decisiones de jueces y fiscales.

Capítulo III. FISCALES COORDINADORES Y DELEGADOS ...

Además, este aplicativo está construido empleando un procedimiento de inteligencia artificial denominado redes bayesianas, que tiene capacidad de ...

Hemos investigado posibles usos perversos de ChatGPT para formular acusaciones falsas, así como comisiones de delitos por omisión del deber de perseguir delitos tipificado en el artículo 408 del Código Penal, y llegamos a la conclusión de que todo funcionario público que utilice ChatGPT u otras aplicaciones de AI debe reconocerlo o asumir máximas responsabilidades de todo tipo si se descubre que sus textos tienen algún error u omisión por usar la aplicación. Además, hemos interrogado a ChatGPT precisamente sobre ello obteniendo las siguientes respuestas textuales:

 

¿Cómo un acusador público o fiscal puede utilizar ChatGPT para formular una acusación penal?

 

Como modelo de lenguaje, ChatGPT puede ser útil para un acusador público o fiscal en la formulación de una acusación penal de varias maneras. A continuación, se presentan algunos pasos que puede seguir para utilizar ChatGPT en este contexto:

  • Recopilar información: El primer paso es recopilar toda la información relevante sobre el caso, incluyendo los detalles del crimen, los hechos, las pruebas, los testigos y cualquier otra información que pueda ser útil. Cuanta más información se tenga, más precisa será la formulación de la acusación.
  • Formular preguntas: Una vez que se tenga toda la información, el acusador puede utilizar ChatGPT para formular preguntas sobre el caso. Estas preguntas pueden ser específicas o generales, y deben estar relacionadas con los hechos del caso.
  • Generar hipótesis: Utilizando las respuestas de ChatGPT a las preguntas formuladas, el acusador puede generar hipótesis sobre lo que sucedió y quién es el responsable. ChatGPT puede ayudar en este proceso al proporcionar información adicional o al sugerir posibles escenarios.
  • Refinar la acusación: Con las hipótesis generadas, el acusador puede comenzar a formular la acusación penal. ChatGPT puede ser útil para refinar la acusación, proporcionando una redacción más precisa y detallada, así como ayudando a identificar cualquier detalle o prueba que pueda faltar.

Es importante recordar que ChatGPT es solo una herramienta y que el acusador público o fiscal es quien tiene la responsabilidad final de formular la acusación penal. Por lo tanto, se deben seguir todos los procedimientos legales y éticos en el uso de esta herramienta y cualquier otra en el proceso de formulación de la acusación.

 

¿Cómo puede denunciarse a un fiscal que ha utilizado ChatGPT para cometer el delito del artículo 408 del Código Penal de España?

 

Si se sospecha que un fiscal ha utilizado ChatGPT para cometer el delito del artículo 408 del Código Penal de España, la denuncia debe ser presentada ante la Fiscalía correspondiente, ya que ellos son los encargados de investigar a los propios fiscales en España.

La denuncia debe contener información detallada sobre el fiscal en cuestión, incluyendo el momento y el lugar donde se cometió el delito. Además, es importante que se incluya cualquier evidencia que respalde la afirmación de que el fiscal utilizó ChatGPT para cometer el delito, como capturas de pantalla o registros de uso de la herramienta.

Es importante que la denuncia sea clara, concisa y esté respaldada por pruebas concretas para aumentar las posibilidades de que se tome en cuenta. Si se cuenta con la asesoría de un abogado o una abogada, es recomendable trabajar juntos en la preparación de la denuncia.

Una vez que se presenta la denuncia, la Fiscalía deberá investigar el caso para determinar si se cometió un delito. Si se encuentra suficiente evidencia, el fiscal en cuestión podría ser procesado y sancionado de acuerdo con las leyes y reglamentos aplicables. 

Es importante tener en cuenta que el proceso legal para investigar y sancionar a un fiscal es complejo y puede llevar tiempo. Por lo tanto, es importante ser paciente y estar dispuesto a colaborar con las autoridades competentes en todo momento.

 

¿Cómo puede defenderse el acusado por un fiscal que ha utilizado ChatGPT?

 

Si un fiscal ha utilizado ChatGPT en la formulación de una acusación penal, es importante que el abogado defensor del acusado comprenda cómo se ha utilizado la herramienta y cómo ha influido en la formulación de la acusación. A continuación, se presentan algunos pasos que puede seguir un abogado defensor en este contexto:

  • Solicitar información: El abogado defensor debe solicitar toda la información relacionada con la utilización de ChatGPT en la formulación de la acusación, incluyendo la información recopilada, las preguntas formuladas y las respuestas proporcionadas por el modelo.
  • Evaluar la validez de la acusación: El abogado defensor debe evaluar si la acusación basada en ChatGPT está respaldada por pruebas sólidas y legales, o si se basa únicamente en la salida del modelo. Es importante que el abogado defensor evalúe la validez y credibilidad de la evidencia presentada por el fiscal.
  • Considerar posibles desafíos: Si se identifican problemas en la utilización de ChatGPT en la formulación de la acusación, el abogado defensor puede considerar desafiar la validez de la acusación en el tribunal. Esto podría incluir la presentación de argumentos basados en la falta de pruebas concretas y legales, así como la falta de fiabilidad y credibilidad de la salida del modelo.
  • Buscar ayuda experta: Si el abogado defensor no está familiarizado con el uso de herramientas de inteligencia artificial como ChatGPT, puede ser útil buscar la ayuda de un experto en el campo. Un experto puede proporcionar información adicional sobre la validez y el uso adecuado de la herramienta y ayudar al abogado defensor a preparar una defensa efectiva.

Es importante recordar que el uso de ChatGPT en la formulación de una acusación penal no es necesariamente ilegal, siempre y cuando se cumplan todos los procedimientos legales y éticos necesarios y se presenten pruebas válidas y legalmente adquiridas. En última instancia, la validez de la acusación se determinará en el tribunal en función de la evidencia presentada y los argumentos presentados por ambas partes.

 

¿Cómo se puede denunciar en España a un fiscal que utiliza ChatGPT ante la Inspección de la Fiscalía General del Estado para que se investigue el uso indebido de ChatGPT en perjuicio de un acusado que se defiende de acusaciones falsas?

 

Si usted tiene evidencia de que un fiscal está utilizando ChatGPT de manera inapropiada o ilegal en un proceso penal, puede presentar una denuncia ante la Inspección de la Fiscalía General del Estado en España. A continuación se presentan los pasos que puede seguir para presentar su denuncia:

  • Recopile toda la información relevante: Antes de presentar una denuncia, asegúrese de recopilar toda la información relevante relacionada con el uso indebido de ChatGPT por parte del fiscal. Esto puede incluir cualquier documentación o comunicación relacionada con la utilización de la herramienta, así como cualquier otra información que pueda respaldar su denuncia.
  • Presente una denuncia por escrito: La denuncia debe ser presentada por escrito ante la Inspección de la Fiscalía General del Estado en España. Asegúrese de incluir todos los detalles relevantes y la evidencia que respalda su denuncia.
  • Espere la respuesta de la Inspección: Después de recibir su denuncia, la Inspección de la Fiscalía General del Estado llevará a cabo una investigación para determinar si hay alguna base para su denuncia. Es posible que se le solicite proporcionar información adicional o evidencia durante el proceso de investigación.
  • Proporcione asistencia adicional si es necesario: Si la Inspección de la Fiscalía General del Estado necesita más información o asistencia de su parte, asegúrese de estar disponible para proporcionarla.
  • Espere la resolución de la denuncia: Una vez que se haya completado la investigación, la Inspección de la Fiscalía General del Estado tomará una decisión y emitirá una resolución con respecto a su denuncia. Si se determina que el fiscal ha utilizado ChatGPT de manera inapropiada o ilegal, se pueden tomar medidas disciplinarias o legales en su contra.

Es importante recordar que la presentación de una denuncia debe hacerse de buena fe y con la intención de proteger los derechos y la justicia del acusado, no para perjudicar al fiscal injustamente.

 

¿Conoce ChatGPT algún escrito de algún fiscal que haya sido juzgado en algún lugar del mundo en cualquier jurisdicción, o que fuera sancionado por la fiscalía por utilizar ChatGPT?

 

No tengo conocimiento de ningún caso en particular en el que un fiscal haya sido juzgado o sancionado por el uso de ChatGPT en cualquier jurisdicción. Es importante tener en cuenta que el uso de ChatGPT en la redacción de documentos legales o en cualquier otro contexto aún es relativamente nuevo y no está completamente regulado en todos los países.

Sin embargo, el uso de tecnologías similares en el ámbito legal, como el software de generación automática de contratos, ha sido objeto de discusión en varios países y ha generado cierta preocupación en torno a la responsabilidad legal y ética de los abogados y fiscales en el uso de estas tecnologías.

En cualquier caso, el uso de ChatGPT o cualquier otra tecnología en la redacción de documentos legales debe ser siempre transparente y ético, y debe cumplir con todas las leyes y regulaciones aplicables. Si se sospecha que un fiscal o abogado ha utilizado estas tecnologías de manera inapropiada o ilegal, se debe presentar una denuncia ante las autoridades competentes para que investiguen el caso.

 

Estamos recopilando más evidencias “DE OMNI RE SCIBILI” algunas de las cuales debemos reservarnos en aras de la eficacia para ENTREGAS CONTROLADAS, agentes encubiertos y testigos protegidos colaboradores eficaces para aportar las pruebas de que un funcionario público perjudica a un particular, por acciones, omisiones, disfunciones o dilaciones. Somos conscientes de la gravedad de los hechos descritos como indicios racionales de criminalidad tecnológica, y nos hacemos responsables de toda “NOTITIA CRIMINIS”.

 

Por lo expuesto, se SOLICITA información precisada “ut supra” a la Fiscalía competente, estando los solicitantes a la disposición de todo funcionario público competente que comprenda la trascendencia de lo que investigamos, para ejercer más eficazmente nuestros derechos de acceso por solicitud de TRANSPARENCIA en https://www.miguelgallardo.es/fiscales-chatgpt.pdf

 

OTROSÍ digo, lo dispuesto en la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público, Artículo 14. Decisiones sobre competencia. 1. El órgano administrativo que se estime incompetente para la resolución de un asunto remitirá directamente las actuaciones al órgano que considere competente, debiendo notificar esta circunstancia a los interesados.

 

Por ser de hacer Justicia que pedimos en la fecha de registro de este PDF.

 

Nota: Se adjunta la mencionada solicitud a Presidencia del Gobierno ya registrada con REGAGE23e00021958215 para la mejor información de quienes resulten más competentes en este asunto, y en sus posibles indicios o “NOTITIA CRIMINIS” en https://www.linkedin.com/pulse/chatgpt-y-pedro-s%25C3%25A1nchez-en-presidencia-del-gobierno-o 

e incluye a su vez una denuncia a la Agencia Española de Protección de Datos AEPD publicada en https://www.miguelgallardo.es/aepd-chatgpt.pdf

@miguelgallardo Dr. (PhD) Ing. Miguel Gallardo PERITO Tel.  (+34) 902998352 E-mail: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

@APEDANICA Asociación APEDANICA con registro del Ministerio del Interior www.cita.es/apedanica.pdf

https://cita.es/gobierno-chatgpt-firmado.pdf  https://cita.es/gobierno-chatgpt-justificante.pdf 

Presidencia del Gobierno, Ministerios y Entidades Dependientes por solicitud de TRANSPARENCIA en https://www.miguelgallardo.es/gobierno-chatgpt.pdf 

 

Dr. Ing. Miguel Ángel Gallardo Ortiz PhD, también en representación de APEDANICA - Asociación para la Prevención y Estudio de Delitos, Abusos y Negligencias en Informática y Comunicaciones Avanzadas, por lo dispuesto en la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno, y por los arts. 9, 14, 20, 105 y 120 de la Constitución Española, como mejor proceda, SOLICITAMOS:

 

Información sobre todo posible uso gubernamental autorizado del ChatGPT de OpenAI u otras aplicaciones como IBM Watson ROSS, Google Assistant, Amazon Alexa, Microsoft Cortana, Apple Siri u otras distintas capaces de ofrecer Inteligencia Artificial para cualquier propósito o finalidad pública.

 

Información lo más precisa y actualizada que sea posible sobre pago con fondos públicos de licencias o versiones “PREMIUM” de ChatGPT de OpenAI u otras aplicaciones utilizadas, o probadas, o adquiridas alguna vez en el Gobierno de España o en alguna de las entidades que dependen de él.

 

Estadística y descripción de todas las resoluciones administrativas en las que se haya utilizado alguna aplicación de Inteligencia Artificial, con el mayor detalle posible, prescindiendo de todo dato personal protegible, pero precisando cuanto pueda ser relevante para cualquier tipo de recurso y casos en que se recurrió una resolución alegando que se utilizó AI indebidamente.

 

Aunque la Ley 19/2013 no requiere justificación alguna, en aras de la eficacia pero sin renunciar a la información procedente de cualquier otra fuente de contraste, o para evidenciar ignorancia negligente, y además, por la convicción práctica de que la mejor manera de fundamentar una solicitud de transparencia es ofrecerla también adjuntamos la denuncia ya registrada con REGAGE23e00021953609 en la que hacemos las siguientes referencias por ser relevantes para el Gobierno de España:

 

En España numerosos organismos públicos reconocen estar utilizando, o al menos experimentando, con ChatGPT, entre las cuales bien puede estar la Agencia Española de Protección de Datos AEPD, para procesar textos o incluso proponer resoluciones. La opacidad de la AEPD impide poder evidenciar esta fundada sospecha, pero hay al menos 400 referencias de entidades bajo el dominio gob.es que elogian y anuncian usos de ChatGPT en resultados de Google (aunque Google es parte muy sospechosa y a la AEPD le constan varias censuras presuntamente encubridoras, por ejemplo, de la marca TeBorramos y la empresa Legal Eraser SL). En este sentido, hemos preservado los primeros resultados de Google buscando en gov.es por ChatGPT en https://cita.es/chatgpt-gubernamental.pdf

 

Nótese que estamos denunciando el uso de ChatGPT en la función pública responsabilizando a la AEPD de toda posible consecuencia indeseable, y en todo caso, el funcionario que utilice ese tipo de aplicaciones debe estar bien identificado sin que sus datos sean protegibles ni ocultados.

 

Pero es más grave aún que una Administración Pública pague por versiones “PREMIUM” de ChatGPT y que los funcionarios hagan libre uso de versiones premium o privilegiadas para fines privados. Por ello, entendemos que toda licencia pagada con fondos públicos de ChatGPT debe tener un responsable que rinda cuentas de su utilización. En todo caso, el uso de ChatGPT incluso en las versiones gratuitas en cualquier Administración Pública, desde las más altas magistraturas, fiscalías y Cuerpos y Fuerzas de la Seguridad del Estado (que pueden violar derechos fundamentales de manera inconsciente e irresponsable por ser muy difícil de detectar), hasta la última universidad pública o municipio que utilice ChatGPT para el ejercicio de cualquier función pública, debe estar siempre muy bien motivado y ser transparente, garantizando la seguridad jurídica y la interdicción de la arbitrariedad del artículo 9.3 de la Constitución Española. En nuestra opinión, toda resolución administrativa que haya tenido la más mínima relación con ChatGPT u otros sistemas similares debe informar de ello, pudiendo incurrir en gravísimas responsabilidades el funcionario que la firme. 

 

Nos consta que la Agencia Española de Protección de Datos AEPD ya es plenamente consciente de la inseguridad jurídica, la arbitrariedad y la indefensión que producen todas las plataformas de aplicaciones informáticas que no tienen ningún representante legal en España. APEDANICA ya ha denunciado ante la AEPD a NSO Group propietaria y responsable del sistema para el espionaje telefónico PEGASUS que ha violado las medidas de seguridad de sistemas ANDROID de Google e IOS de Apple, al igual que lo hacen Cellebrite (especialmente por los metadatos de su sistema analítico UFED) y Verint en espionaje de smartphones, así como de redes como LinkedIn (propiedad de Microsoft que no asume ninguna responsabilidad en España por acciones u omisiones o censuras encubridoras de LinkedIn) o Twitter, cuyos abogados en Baker & Mckenzie hacen lo imposible para que Twitter sea indemandable en España y  FACEBOOK, cuyos abogados del despacho Cuatrecasas hacen lo mismo obligando a demandar en EEUU a Meta Platforms y debiendo traducirse el expediente judicial al inglés, a costa del demandante. Ninguna aplicación tan compleja debe ser indemandable o insancionable en España. En el caso de ChatGPT resulta extremadamente necesaria una representación legal que sea demandable y sancionable considerando su creciente influencia, y los muchos riesgos detectados.

 

En este sentido, el ChatGPT de OpenAI es tan intrusivo como el sistema antiplagio iThenticate y otros de TURNITIN LLC que hemos investigado y denunciado ante varias autoridades. En ambos casos, empleados públicos están confiando datos personales y material inédito muy valioso, con datos y metadatos recopilados en grandes servidores en EEUU fuera de cualquier control de autoridades españolas o europeas. Lamentablemente, ni la Comisión Nacional de los Mercados y la Competencia CNMC ni otras autoridades a las que hemos denunciado la sistemática recopilación de datos y metadatos por TURNITIN LLC se han percatado. La respuesta escrita del Gobierno a la pregunta parlamentaria del Senador Carles Mulet evidencia por sí misma la ingenuidad, o la complicidad, de quien responde en nombre del Gobierno de España en el expediente del Senado 684/062023 publicado en 

https://www.senado.es/web/actividadparlamentaria/iniciativas/detalleiniciativa/index.html?legis=14&id1=684&id2=062023

en el que a la pregunta en https://www.cita.es/gobierno-turnitin-pregunta.pdf

el Gobierno responde según https://www.cita.es/gobierno-turnitin.pdf 

 

Al igual que ocurre con ciertas resoluciones de la AEPD, la lectura de varias respuestas del Gobierno a preguntas parlamentarias hace sospechar que quien responde utiliza aplicaciones y criterios evasivos parecidos a los que hemos analizado críticamente en el ChatGPT de OpenAI. Hasta para el funcionario más obtuso y menos informado es relativamente muy fácil utilizar el ChatGPT de OpenAI al redactar RESOLUCIONES ESTEREOTIPADAS y, lo que es mucho más grave aún, en resoluciones administrativas. Sin embargo, no es nada sencillo evidenciar que se ha utilizado ChatGPT de OpenAI en un determinado texto como bien saben cientos de profesores que deben evaluar a numerosos alumnos que utilizan ChatGPT de OpenAI para hacer trabajos escolares. La directora de la AEPD, Mar España Martí, es responsable de todo cuanto firma, sea quien sea quien se lo redacte, pero si en alguna de sus resoluciones hay algún texto generado por ChatGPT de OpenAI o por cualquier otra aplicación de Inteligencia Artificial, el perjudicado puede instar la nulidad de las actuaciones sin que exista prescripción nunca.

 

Hemos preguntado nosotros mismos al ChatGPT de OpenAI sobre el “uso gubernamental de ChatGPT”, obteniendo esta respuesta (cita textual):

En un contexto gubernamental, ChatGPT podría ser utilizado para:

  • Brindar respuestas rápidas y precisas a preguntas frecuentes de los ciudadanos sobre los servicios gubernamentales y los requisitos legales.
  • Ayudar en la elaboración de políticas y programas gubernamentales, proporcionando información y perspectivas adicionales para respaldar la toma de decisiones.
  • Analizar grandes conjuntos de datos y textos para identificar patrones y tendencias relevantes, lo que podría ayudar en la formulación de políticas y programas.
  • Mejorar la comunicación entre el gobierno y los ciudadanos mediante la generación de informes y documentos más claros y accesibles.
  • Facilitar la traducción en tiempo real de información gubernamental para ciudadanos que hablan diferentes idiomas.

Es evidente que OpenAI tiene intención de influir en decisiones gubernamentales, y con casi total seguridad ya haya conseguido algún éxito posiblemente no detectado por el Gobierno, por lo que, APEDANICA recomienda que se investigue hasta el último dato, metadato o referencia de lo que aquí se solicita por transparencia además de todo lo que haya motivado la orden del Garante de Italia como autoridad de privacidad y protección de datos, que con efecto inmediato, ordenó la limitación temporal del procesamiento de datos de usuarios italianos contra OpenAI. Desde Italia está bloqueado el acceso al dominio o Web de la empresa estadounidense que desarrolló y administra la plataforma ChatGPT. Mientras, en España nada impide que un funcionario o empleado público, incluso un juez, fiscal, policía, o un ministro, utilice ChatGPT u otras aplicaciones como IBM Watson ROSS, Google Assistant, Amazon Alexa, Microsoft Cortana, Apple Siri u otras distintas capaces de ofrecer Inteligencia Artificial para cualquier propósito o finalidad, perjudicialmente, más aún si se oculta que en la resolución perjudicial ha utilizado alguna aplicación.

 

Por lo expuesto, se SOLICITA información precisada “ut supra” a la autoridad más competente, estando los solicitantes a la disposición de todo funcionario público competente que comprenda la trascendencia de lo que investigamos, para ejercer más eficazmente nuestros derechos de acceso por solicitud de TRANSPARENCIA en https://www.miguelgallardo.es/gobierno-chatgpt.pdf 

 

OTROSÍ digo, lo dispuesto en la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público, Artículo 14. Decisiones sobre competencia. 1. El órgano administrativo que se estime incompetente para la resolución de un asunto remitirá directamente las actuaciones al órgano que considere competente, debiendo notificar esta circunstancia a los interesados.

 

Es lo que pedimos en la fecha de registro de esta solicitud de transparencia a la que adjuntamos la denuncia ya registrada con REGAGE23e00021953609.

@miguelgallardo Dr. (PhD) Ing. Miguel Gallardo PERITO Tel.  (+34) 902998352 E-mail: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

@APEDANICA Asociación APEDANICA con registro del Ministerio del Interior www.cita.es/apedanica.pdf

https://cita.es/aepd-chatgpt-justificante.pdf 

Agencia Española de Protección de Datos AEPD (DENUNCIA)

Atn. directora Mar España Martí secretaria general Mónica Bando Munugarren y subdirectora de Inspección de Datos Olga Pérez Sanjuán denuncia publicada en https://www.miguelgallardo.es/aepd-chatgpt.pdf  

https://www.linkedin.com/pulse/denuncia-contra-el-chatgpt-de-openai-ante-agencia-por 

Dr. Ing. Miguel Ángel Gallardo Ortiz PhD, también en representación de APEDANICA - Asociación para la Prevención y Estudio de Delitos, Abusos y Negligencias en Informática y Comunicaciones Avanzadas, como mejor proceda presenta denuncia por los siguientes HECHOS:

 

La autoridad de Protección de Datos de Italia (GARANTE) ha ordenado, con efecto inmediato, la limitación temporal del procesamiento de datos de usuarios italianos contra OpenAI, la empresa estadounidense que desarrolló y administra la plataforma ChatGPT. El comunicado oficial en italiano está en https://cita.es/aepd-chatgpt-italia.pdf y hay numerosas noticias diversas en castellano sobre la resolución del Garante contra ChatGPT de OpenAI. Hasta ahora, no hemos encontrado ninguna resolución de la AEPD relativa a ChatGPT de OpenAI aunque sí muy vagas y genéricas manifestaciones sobre inteligencia artificial en los documentos publicados en el dominio aepd.es

Mapa de referencia para tratamientos que incluyen Inteligencia Artificial [nov 2022]

10 Malentendidos sobre el Machine Learning (Aprendizaje Automático) [sep 2022]

Requisitos para Auditorías de Tratamientos que incluyan IA [ene 2021]

Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial [feb 2020]

pero insistimos en que no hemos visto ninguna resolución que mencione a ChatGPT de OpenAI ni nada parecido a lo ordenado por el Garante de Italia.

 

EUROPOL ha publicado (en inglés) un informe sobre ciertos riesgos para la seguridad pública que supone ChatGPT que, por su interés, preservamos en https://cita.es/aepd-chatgpt-europol.pdf (aunque APEDANICA tiene la fundada sospecha de que son más y que OpenAI debe ser responsable subsidiario de todos los daños y perjuicios que ocasione ChatGPT), y en todo caso, las resoluciones administrativas, especialmente las policiales o fiscales y mucho más aún las judiciales basadas en ChatGPT deben ser prohibidas y sancionados todos los funcionarios que las utilicen, sin perjuicio de todas las responsabilidades patrimoniales indemnizatorias.

 

En España numerosos organismos públicos reconocen estar utilizando, o al menos experimentando, con ChatGPT, entre las cuales bien puede estar la Agencia Española de Protección de Datos AEPD, para procesar textos o incluso proponer resoluciones. La opacidad de la AEPD impide poder evidenciar esta fundada sospecha, pero hay al menos 400 referencias de entidades bajo el dominio gob.es que elogian y anuncian usos de ChatGPT en resultados de Google (aunque Google es parte muy sospechosa y a la AEPD le constan varias censuras presuntamente encubridoras, por ejemplo, de la marca TeBorramos y la empresa Legal Eraser SL). En este sentido, hemos preservado los primeros resultados de Google buscando en gov.es por ChatGPT en https://cita.es/chatgpt-gubernamental.pdf

 

Nótese que estamos denunciando el uso de ChatGPT en la función pública responsabilizando a la AEPD de toda posible consecuencia indeseable, y en todo caso, el funcionario que utilice ese tipo de aplicaciones debe estar bien identificado sin que sus datos sean protegibles ni ocultados.

 

Pero es más grave aún que una Administración Pública pague por versiones “PREMIUM” de ChatGPT y que los funcionarios hagan libre uso de versiones premium o privilegiadas para fines privados. Por ello, entendemos que toda licencia pagada con fondos públicos de ChatGPT debe tener un responsable que rinda cuentas de su utilización. En todo caso, el uso de ChatGPT incluso en las versiones gratuitas en cualquier Administración Pública, desde las más altas magistraturas, fiscalías y Cuerpos y Fuerzas de la Seguridad del Estado (que pueden violar derechos fundamentales de manera inconsciente e irresponsable por ser muy difícil de detectar), hasta la última universidad pública o municipio que utilice ChatGPT para el ejercicio de cualquier función pública, debe estar siempre muy bien motivado y ser transparente, garantizando la seguridad jurídica y la interdicción de la arbitrariedad del artículo 9.3 de la Constitución Española. En nuestra opinión, toda resolución administrativa que haya tenido la más mínima relación con ChatGPT u otros sistemas similares debe informar de ello, pudiendo incurrir en gravísimas responsabilidades el funcionario que la firme. 

 

Nos consta que la Agencia Española de Protección de Datos AEPD ya es plenamente consciente de la inseguridad jurídica, la arbitrariedad y la indefensión que producen todas las plataformas de aplicaciones informáticas que no tienen ningún representante legal en España. APEDANICA ya ha denunciado ante la AEPD a NSO Group propietaria y responsable del sistema para el espionaje telefónico PEGASUS que ha violado las medidas de seguridad de sistemas ANDROID de Google e IOS de Apple, al igual que lo hacen Cellebrite (especialmente por los metadatos de su sistema analítico UFED) y Verint en espionaje de smartphones, así como de redes como LinkedIn (propiedad de Microsoft que no asume ninguna responsabilidad en España por acciones u omisiones o censuras encubridoras de LinkedIn) o Twitter, cuyos abogados en Baker & Mckenzie hacen lo imposible para que Twitter sea indemandable en España y  FACEBOOK, cuyos abogados del despacho Cuatrecasas hacen lo mismo obligando a demandar en EEUU a Meta Platforms y debiendo traducirse el expediente judicial al inglés, a costa del demandante. Ninguna aplicación tan compleja debe ser indemandable o insancionable en España. En el caso de ChatGPT resulta extremadamente necesaria una representación legal que sea demandable y sancionable considerando su creciente influencia, y los muchos riesgos detectados.

 

En este sentido, el ChatGPT de OpenAI es tan intrusivo como el sistema antiplagio iThenticate y otros de TURNITIN LLC que hemos investigado y denunciado ante varias autoridades. En ambos casos, empleados públicos están confiando datos personales y material inédito muy valioso, con datos y metadatos recopilados en grandes servidores en EEUU fuera de cualquier control de autoridades españolas o europeas. Lamentablemente, ni la Comisión Nacional de los Mercados y la Competencia CNMC ni otras autoridades a las que hemos denunciado la sistemática recopilación de datos y metadatos por TURNITIN LLC se han percatado. La respuesta escrita del Gobierno a la pregunta parlamentaria del Senador Carles Mulet evidencia por sí misma la ingenuidad, o la complicidad, de quien responde en nombre del Gobierno de España en el expediente del Senado 684/062023 publicado en 

https://www.senado.es/web/actividadparlamentaria/iniciativas/detalleiniciativa/index.html?legis=14&id1=684&id2=062023

en el que a la pregunta en https://www.cita.es/gobierno-turnitin-pregunta.pdf

el Gobierno responde según https://www.cita.es/gobierno-turnitin.pdf 

 

Al igual que ocurre con ciertas resoluciones de la AEPD, la lectura de varias respuestas del Gobierno a preguntas parlamentarias hace sospechar que quien responde utiliza aplicaciones y criterios evasivos parecidos a los que hemos analizado críticamente en el ChatGPT de OpenAI. Hasta para el funcionario más obtuso y menos informado es relativamente muy fácil utilizar el ChatGPT de OpenAI al redactar RESOLUCIONES ESTEREOTIPADAS y, lo que es mucho más grave aún, en resoluciones administrativas. Sin embargo, no es nada sencillo evidenciar que se ha utilizado ChatGPT de OpenAI en un determinado texto como bien saben cientos de profesores que deben evaluar a numerosos alumnos que utilizan ChatGPT de OpenAI para hacer trabajos escolares. La directora de la AEPD, Mar España Martí, es responsable de todo cuanto firma, sea quien sea quien se lo redacte, pero si en alguna de sus resoluciones hay algún texto generado por ChatGPT de OpenAI o por cualquier otra aplicación de Inteligencia Artificial, el perjudicado puede instar la nulidad de las actuaciones sin que exista prescripción nunca.

 

La directora de la AEPD también tiene responsabilidad por las acciones, omisiones y disfunciones de las Administraciones Públicas que utilicen Inteligencia Artificial afectando a ciudadanos, incluyendo a la Administración de Justicia y al Poder Judicial (véase el “Convenio de Colaboración entre el Consejo General del Poder Judicial y la Agencia de Protección de Datos sobre inspección de órganos jurisdiccionales en materia de protección de datos” de 3 de mayo de 2010, y en especial, su cláusula tercera por la que se constituye una “comisión de seguimiento” formada por 3 representantes del CGPJ y otros 3 de la AEPD). No hemos encontrado ni una sola referencia en la Jurisprudencia publicada en poderjudicial.es ni al ChatGPT de OpenAI ni a otros sistemas de inteligencia artificial para elaborar razonamientos jurídicos como es el IBM Watson ROSS pero eso no significa que no estén siendo utilizados, sino que todavía no se ha denunciado públicamente ningún caso así en España, aunque sí en Colombia, como puede verse en esta noticia

https://cambiocolombia.com/pais/la-sentencia-de-un-juez-de-cartagena-que-uso-la-inteligencia-artificial-de-chatgpt

La sentencia de un juez de Cartagena que usó la inteligencia artificial de ChatGPT. Un juez resolvió una tutela en la que se le pedía a una EPS garantizar el derecho a la salud a un niño con autismo con ayuda de la inteligencia artificial. La sentencia suscitó reparos desde la academia. ¿Por qué? Argumentando la aplicación de la Ley 2213 de 2022, la cual permite adoptar medidas de las tecnologías de la información a las actuaciones judiciales, el Juzgado Primero Laboral del Circuito de Cartagena se apoyó en la novedosa inteligencia artificial para resolver una acción de tutela.

 

Esa noticia se comprende mejor en todo su alcance leyendo la cita ISO 690

GUTIÉRREZ, Juan David. ChatGPT in Colombian Courts: Why we need to have a conversation about the digital literacy of the judiciary. Verfassungsblog, 2023.

https://verfassungsblog.de/colombian-chatgpt/ 

On January 31st 2023, judge Juan Manuel Padilla issued a 7-page ruling on a case in which the fundamental right to health of a child, diagnosed as being on the autism spectrum, was at stake. It was a relatively simple second instance case decided by a judge in Cartagena, Colombia, in which the key legal question was whether a health insurance company’s request for co-payments or a fee for authorizing a medical procedure infringed on the child’s fundamental rights to health and dignified life. Judge Padilla upheld the first instance ruling that favored the child. The ruling would have been one of thousands of health-related judicial decisions adopted in Colombia every year, but for the fact that the judge decided to transcribe his interactions with ChatGPT, which he had used to motivate his verdict. In a matter of hours, the ruling made its way into the Colombian national media and has now been registered by media outlets all over the world.

Más y mejor aún se comprende el problema considerando las controversias legales de estas otras citas de 2023 que expresamente mencionan ChatGPT 

GUNDER, Jessica R. Why Can't I Have a Robot Lawyer? Limits on the Right to Appear Pro Se. Limits on the Right to Appear Pro Se (March 16, 2023), 2023.

KATZ, Daniel Martin, et al. GPT-4 Passes the Bar Exam. Available at SSRN 4389233, 2023.

IIA, Michael J. Bommarito; KATZA, Daniel Martin. GPT takes the Bar Exam.

SHOPE, Mark. The AI Writing Assistant Handbook for Law. Available at SSRN 4364693, 2023.

SAREL, Roee. Restraining ChatGPT. Available at SSRN 4354486, 2023.

MACEY-DARE, Rupert. ChatGPT & Generative AI Systems as Quasi-Expert Legal Advice Lawyers-Case Study Considering Potential Appeal Against Conviction of Tom Hayes. Available at SSRN 4342686, 2023.

IU, Kwan Yuen; WONG, Vanessa Man-Yi. ChatGPT by OpenAI: The End of Litigation Lawyers?. Available at SSRN, 2023.

REHAAG, Sean. Luck of the Draw III: Using AI to Examine Decision-Making in Federal Court Stays of Removal. 2023.

MONTI, Andrea. The Digital Rights Delusion: Humans, Machines and the Technology of Information. Taylor & Francis, 2023.

 

El problema de detectar el uso indebido de cualquier tipo de inteligencia artificial es, esencialmente, el mismo que planteaba Alan Turing en 1951 en su artículo que, pasados ya más de 70 años, es muy relevante y actual pues 

TURING, Alan M. Can digital computers think?. The Turing Test: Verbal Behavior as the Hallmark of Intelligence, 1951, p. 111-116.

ha sido citado en cientos de artículos doctrinales muy actuales y, entre otros, estos dos aquí muy relevantes, publicados en lo que va de año 2023

AYDIN, Ömer; KARAARSLAN, Enis. Is ChatGPT Leading Generative AI? What is Beyond Expectations?. What is beyond expectations, 2023.

NYHOLM, Sven. Artificial Intelligence, Humanoid Robots, and Old and New Control Problems. En Social Robots in Social Institutions. IOS Press, 2023. p. 3-12.

 

Sin embargo, el uso indebido en perjuicio de terceros de ChatGPT de OpenAI o IBM Watson ROSS, Google Assistant, Amazon Alexa, Microsoft Cortana, Apple Siri u otras aplicaciones de Inteligencia Artificial no solamente puede ser evidenciado mediante el análisis de los textos generados, sino que es perfectamente legítimo hasta el uso legal de ENTREGAS CONTROLADAS, agentes encubiertos y testigos protegidos colaboradores eficaces para aportar las pruebas de que un funcionario público perjudica a un particular. 

 

En este sentido, la asociación APEDANICA no renuncia ni descarta el ejercicio de todos los derechos a su alcance, o al de sus asociados, para evidenciar el uso indebido, o perverso, de inteligencia artificial en perjuicio de particulares, y además, no dudaremos en acusar de ENCUBRIMIENTO al funcionario público que impida su ejercicio o la publicación de la identidad de quien haga uso indebido de recursos públicos que financien inteligencia artificial. La AEPD ya conoce casos de censura digital, al menos en Google (aunque también hemos detectado censura en LinkedIn y Twitter), incluso de hechos, documentos y datos con relevancia penal y puede existir presuntos ENCUBRIMIENTOS en la AEPD especialmente cuando sus resoluciones sirven para que automáticamente Google elimine contenidos que molestan a la empresa Legal Eraser SL con su marca TeBorramos y en especial, al funcionario inspector de Trabajo y Seguridad Social condenado por delitos de corrupción, Miguel Ángel Montero de Espinosa Solbes. Funcionario que ya ha conseguido eliminar su nombre de cientos de resultados en Google que hacían mención a su actos de corrupción, o a su condena, pero que sí aparece en docenas de noticias y videos como responsable nacional de la Inspección de Trabajo del CSIF.

 

Basta ver el gran número de notificaciones con “Aviso de retirada de contenido de la Búsqueda de Google” para hacer responsables de todas las censuras con presunto ENCUBRIMIENTO en los resultados de Google que pueden verse al final de las búsquedas, por ejemplo, sobre la palabra “TeBorramos”, con el aviso “En respuesta a un requisito legal enviado a Google, hemos eliminado X resultado(s) de esta página” que, con toda probabilidad, se refiere a resoluciones de la AEPD que censuran ilegalmente nombres incluso de funcionarios públicos condenados por graves delitos de corrupción, lo que es presuntamente más delictivo aún por ser indicio racional de presunta prevaricación y encubrimiento incluso de ciertas marcas comerciales en los resultados de Google como es el caso de la ya mencionada TeBorramos, Kuailian, EVERFX (censurando también en LinkedIn), OneCoin, o el Banco Santander como ya conoce la AEPD).

 

Es muy importante que quien sea legalmente responsable del uso indebido o abusivo de la inteligencia artificial sea consciente de que no solamente se está utilizando para obtener y beneficiarse ilegalmente de datos personales como ha resuelto el Garante de Italia, sino que también está siendo utilizada para censurar hechos relevantes penalmente en presunto ENCUBRIMIENTO

 

Estudiamos la actividad profesional de Angélica Parente y Domenico Bianculli de Cyber 2 Lex, Samuel Parra de ePrivacidad, Manuel Moreno de Borrame, o Javier Álvarez de Borrarmisdatos, o Rafael Gimeno-Bayón del Molino de Reputaciononlinelegal, o Miguel Juan Cobacho López de Salir de Internet, o David González Calleja en Delere, o Diego Sánchez en Eliminalia o Juan Ricardo Palacio Escobar de Reputaon Up con dominios en cyber-lex.com eprivacidad.es borrame.es borrarmisdatos.es reputaciononlinelegal.es salirdeinternet.com delere.es eliminalia.com reputaonup.com y al menos, por lo que se ofrece en los correos que se publican para ofrecer servicios que compiten con los de la marca TeBorramos que la AEPD oculta censurando sus propias resoluciones, como hacen, al menos, las empresas de Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo., Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

La AEPD no solamente es responsable del tráfico ilegal de datos, más aún cuando los datos o metadatos de ciudadanos españoles acaban en sistemas de EEUU sin representante legal alguno en España, sino también, del uso que se está haciendo de la tecnología en perjuicio de terceros como es el caso de ChatGPT de OpenAI o IBM Watson ROSS, Google Assistant, Amazon Alexa, Microsoft Cortana, Apple Siri u otras aplicaciones de Inteligencia Artificial que pueden facilitar el ENCUBRIMIENTO incluso con la complicidad de algunos funcionarios públicos al servicio de la gestión de la reputación de algún delincuente. En este sentido, señalamos los expedientes 

https://cita.es/aepd-teborramos-requisito-imprescindible-justificante.pdf    https://cita.es/aepd-teborramos-requisito-pendiente.pdf 

Agencia Española de Protección de Datos AEPD en PS/00485/2021  

Atn. directora Mar España Martí, secretaria general Mónica Bando Munugarren, instructor Ángel Carralero Fernández, secretaria Cristina Gómez Piqueras y subdirectora de Inspección de Datos Olga Pérez Sanjuán, en escrito publicado en https://www.miguelgallardo.es/aepd-teborramos-requisito-imprescindible.pdf

y el EXP202205446 con todos los datos y alegaciones del recurso publicado en https://www.miguelgallardo.es/aepd-teborramos-reponiendo.pdf  

así como todo el expediente en el Consejo de Transparencia y Buen Gobierno

por lo ya requerido por la normativa de transparencia a la Agencia Española de Protección de Datos AEPD según la solicitud publicada en 

https://www.cita.es/aepd-transparencia-teborramos.pdf 

https://cita.es/aepd-transparencia-teborramos-justificante.pdf https://cita.es/aepd-transparencia-teborramos-personal.pdf 

contestada por la directora de la AEPD según resolución que puede verse en

https://cita.es/teborramos-transparencia-reclamable.pdf 

que ha sido reclamada según está publicado en

Consejo de Transparencia y Buen Gobierno CTBG en reclamación publicada en https://www.miguelgallardo.es/teborramos-ctbg.pdf 

https://cita.es/teborramos-ctbg-justificante.pdf 

https://cita.es/ctbg-teborramos-firmado.pdf   https://cita.es/ctbg-teborramos-justificante.pdf 

Consejo de Transparencia y Buen Gobierno CTBG Ref. Expte.: 100-007750

Escrito publicado en https://www.miguelgallardo.es/ctbg-teborramos.pdf  

 

Todas estas referencias a documentos y datos precisos evidencian un sistemático trato de favor a la marca TeBorramos de la empresa Legal Eraser SL que la AEPD oculta censurando incluso sus propias resoluciones.

 

La directora de la AEPD conoce el muy relevante hecho publicado de la jactancia de haber eliminado o borrado o censurado ya más de 450.000 enlaces según FRANCISCO JAVIER FRANCH FLETA, en nombre de TeBorramos que se jacta, incluso con su propia fotografía, de haber eliminado, borrado o censurado más de 450.000 enlaces (con 1 único empleado certificado por Inspección de Trabajo) según se ve en https://valenciaplaza.com/teborramos-empresa-valenciana-especializada-borrar-contenido-perjudicial-internet

preservado en https://cita.es/teborramos-valencia-plaza.pdf

publicitando “TeBorramos” en Google AdWords lo siguiente

Desde 149€ Enlace Borrado según publicidad en Google AdWords.

Eso supone un creciente negocio de más de 67.050.000 € (digo más de SESENTA Y SIETE MILLONES CINCUENTA MIL EUROS). Y lo más sospechoso es que según la Inspección de Trabajo y Seguridad Social ITSS (proponemos como testigos a CONCEPCIÓN SÁNCHEZ PALOMO y JOSÉ MANUEL MORA LARA, ambos funcionarios públicos en la ITSS de Valencia), esa censura masiva se produce con un único empleado, según https://cita.es/legal-eraser-inspeccionada.pdf

 

El volumen de trabajo en la AEPD generado por la empresa Legal Eraser SL y sus marcas TeBorramos y Honoralia u otras es tan elevado, con un único empleado, y su modus operandi tan sistemático, que muy probablemente ya estarán haciendo uso de herramientas y aplicaciones a las que confían datos personales, y además, sería ilegal en los funcionarios de la AEPD como el instructor Ángel Carralero Fernández, en el expediente PS/00485/2021 (por cierto, también censurado en, al menos, 7 resultados de Google).

 

Además del presunto ENCUBRIMIENTO por censura digital de hechos con relevancia penal por indicios racionales que constan en archivos y registros de la AEPD, es muy probable que, directamente o no, la empresa Legal Eraser SL haya recibido más beneficios indebidos o incluso fondos públicos.

 

En resumen, entre la decisión del Garante de la privacidad y la protección de datos en Italia de bloquear el ChatGPT de OpenAI y el uso anónimo por funcionarios públicos de aplicaciones como IBM Watson ROSS, Google Assistant, Amazon Alexa, Microsoft Cortana, Apple Siri u otras aplicaciones de Inteligencia Artificial, no solamente existe un riesgo para la privacidad por exponerse datos personales de ciudadanos españoles al tráfico internacional, sino también, porque empresas como Legal Eraser SL con marcas como TeBorramos y Honoralia provocan que numerosos funcionarios tengan que contestar e instruir sus perversas actuaciones administrativas para su negocio censurador con presunto ENCUBRIMIENTO de hechos penalmente relevantes, y este fenómeno en la misma AEPD puede parecer que ampara a otros funcionarios españoles que firman muy numerosas RESOLUCIONES ESTEREOTIPADAS asistidos por aplicaciones como el ChatGPT de OpenAI bloqueado por el Garante de la privacidad y la protección de datos en Italia.

 

Por lo expuesto, se SOLICITA que se admita esta denuncia y pronto se abra un expediente sobre ChatGPT de OpenAI, IBM Watson ROSS, Google Assistant, Amazon Alexa, Microsoft Cortana, Apple Siri u otras aplicaciones de Inteligencia Artificial que usen funcionarios en Administraciones Públicas, empezando por esta misma Agencia Española de Protección de Datos AEPD informando a todos los posibles afectados de la manera más eficaz posible, y en especial, a los aquí denunciantes con reconocimiento expreso de todos los derechos del artículo 53 de la Ley 39/2015, de 1 de octubre, del Procedimiento Administrativo Común de las Administraciones Públicas y en especial, a conocer la identificación de los funcionarios competentes y recibir la más pronta información de las actuaciones, con suspensión de todas las posibles prescripciones de los hechos aquí denunciados.

 

OTROSÍ digo, lo dispuesto en la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público, Artículo 14. Decisiones sobre competencia. 1. El órgano administrativo que se estime incompetente para la resolución de un asunto remitirá directamente las actuaciones al órgano que considere competente, debiendo notificar esta circunstancia a los interesados.

 

Por ser de hacer Justicia que pedimos en la fecha de registro de este PDF.

 

Nota final: s.e.u.o. el denunciante Dr. Ing. Miguel Ángel Gallardo Ortiz PhD se hace responsable de todo cuanto esté publicado en los dominios de Internet cita.es y miguelgallardo.es con especial interés en todo lo que en ellos ya ha censurado Google pese a ser rigurosamente cierto y veraz. De hecho, son los contenidos censurados en ambos dominios los que, precisamente, tienen relevancia a efecto sancionador y penal por el presunto ENCUBRIMIENTO.

 

Denuncia publicada en https://www.miguelgallardo.es/aepd-chatgpt.pdf