Mariana Solari, coordinadora del Grado de Criminología y Seguridad en la Facultad de Derecho de la UCA

“La IA ayuda a prevenir delitos y mejora la eficacia de las investigaciones”

  • La doctora en Derecho Penal celebra los beneficios de la Inteligencia Artificial en el procesamiento de las causas pero advierte sobre los desafíos asociados para que su uso sea ético y justo

  • "Las herramientas de IA pueden predecir áreas donde es más probable que ocurran ciertos tipos de crímenes"

  • "La suplantación de la identidad digital no suele ser castigada"

Mariana Solari, coordinadora del Grado de Criminología y Seguridad en la Facultad de Derecho de la UCA.

Mariana Solari, coordinadora del Grado de Criminología y Seguridad en la Facultad de Derecho de la UCA. / Miguel Ángel González

–La IA ha irrumpido con fuerza en distintos ámbitos profesionales. ¿Cómo afecta al Derecho en general y a la Criminología en particular?

–La IA ha tenido un impacto significativo en diversos campos profesionales, y el Derecho y la Criminología no son la excepción. En el ámbito del Derecho, la IA está transformando la manera en que los juristas realizan su trabajo. Una de las principales áreas de impacto es la automatización de tareas repetitivas. Herramientas de IA pueden revisar grandes volúmenes de documentos legales, identificar cláusulas relevantes y extraer información clave con una precisión y velocidad que superan a la humana. Esto no solo mejora la eficiencia, sino que también permite a los profesionales concentrarse en tareas más complejas y de mayor valor añadido, como la estrategia legal y la negociación.

Además, la IA está revolucionando la investigación jurídica. Tradicionalmente, la búsqueda y revisión de jurisprudencia eran tareas que requerían mucho tiempo y esfuerzo. Hoy en día, asistentes jurídicos basados en IA, como los motores de búsqueda avanzados, permiten a los profesionales del Derecho encontrar rápidamente la información más relevante, ahorrando tiempo y mejorando la precisión de sus investigaciones.

En cuanto a la Criminología, la IA está desempeñando un papel innovador al proporcionar herramientas avanzadas para la investigación y el análisis. Por ejemplo, la IA se utiliza para desarrollar perfiles criminales más precisos, analizar grandes cantidades de datos de diversas fuentes y mejorar la toma de decisiones estratégicas en la prevención del delito. Además, la IA permite la simulación de escenarios delictivos para capacitar a las fuerzas del orden y mejorar su preparación. Estas aplicaciones no solo incrementan la eficiencia y la eficacia de las investigaciones criminológicas, sino que también abren nuevas posibilidades para la investigación académica y la formación de futuros criminólogos.

Los beneficios de la IA en estos campos son numerosos. En el Derecho, la IA mejora la precisión y la eficiencia, reduce los costos y permite una toma de decisiones más informada. En Criminología, la IA no solo ayuda a prevenir delitos, sino que también mejora la eficacia de las investigaciones y el procesamiento de casos. Sin embargo, es importante abordar los desafíos asociados para asegurar que el uso de la IA sea ético y justo.

–La IA entonces puede ayudar a predecir posibles delitos.

–La IA tiene el potencial de desempeñar un papel significativo en la prevención y predicción de acciones delictivas, ofreciendo herramientas avanzadas que pueden mejorar la seguridad pública y la eficacia de las fuerzas del orden. Sin embargo, es esencial abordar este tema con un enfoque equilibrado, considerando tanto las capacidades de la IA como sus limitaciones y riesgos.

Así, la IA puede analizar grandes volúmenes de datos para identificar patrones y correlaciones que podrían no ser evidentes para los humanos. Algoritmos de aprendizaje automático pueden examinar datos históricos de delitos, así como datos de redes sociales, cámaras de vigilancia y registros de comunicaciones, para identificar comportamientos sospechosos o inusuales. Por ejemplo, las herramientas de IA pueden predecir áreas donde es más probable que ocurran ciertos tipos de crímenes, permitiendo a las fuerzas del orden desplegar recursos de manera más eficiente y prevenir incidentes antes de que ocurran.

Una de las aplicaciones más prometedoras de la IA en la criminología es la policía predictiva. Mediante el análisis de datos históricos y patrones delictivos, los sistemas de IA pueden ayudar a predecir dónde y cuándo es probable que ocurran delitos, lo que permite una respuesta más proactiva y eficaz por parte de las fuerzas del orden. Además, la IA puede ser utilizada para analizar evidencia digital, como vídeos de vigilancia y registros de comunicaciones, proporcionando análisis detallados y precisos que pueden ser cruciales en las investigaciones criminales.

En varios países, las fuerzas de seguridad ya están utilizando sistemas de IA para predecir delitos y asignar patrullas en función de los datos recopilados. Estos sistemas analizan patrones históricos y otros factores relevantes para anticipar dónde es más probable que ocurran delitos específicos, como robos o vandalismo.

A pesar de sus beneficios, el uso de la IA en la predicción delictiva no está exento de desafíos. Uno de los principales riesgos es la posibilidad de perpetuar y amplificar los  sesgos existentes en los datos de entrenamiento. Si los datos históricos de delitos están sesgados, los algoritmos de IA pueden aprender y perpetuar estos sesgos, lo que podría llevar a decisiones discriminatorias. Por ejemplo, si los datos policiales históricos muestran una mayor vigilancia y arrestos en ciertas comunidades, los algoritmos pueden predecir una mayor probabilidad de delitos en esas áreas, perpetuando ciclos de vigilancia y discriminación.

"La dependencia a la tecnología podría afectar a la capacidad de las personas para pensar de manera crítica”

Otro desafío importante es la privacidad y los derechos fundamentales. El uso de IA para predecir delitos puede implicar la vigilancia y el análisis de datos personales, lo que plantea preocupaciones sobre la invasión de la privacidad y el posible abuso de poder. Es esencial que cualquier sistema de predicción delictiva basado en IA sea transparente y esté sujeto a supervisión ética y legal, garantizando que se respeten los derechos de las personas.

–¿Es necesario establecer cuanto antes un marco legislativo que regule la IA?

–Sí, es absolutamente necesario establecer un marco legislativo que regule la IA cuanto antes. Afortunadamente, ya se ha dado un paso significativo con la aprobación del nuevo Reglamento Europeo de IA. Este reglamento busca garantizar que los sistemas de IA se desarrollen y utilicen de manera ética, segura y transparente, abordando muchos de los desafíos y riesgos asociados con la IA.

El Reglamento Europeo establece un conjunto de normas para los sistemas de IA que operan dentro de la Unión Europea, clasificando estos sistemas según su nivel de riesgo. Para los sistemas de alto riesgo, como aquellos utilizados en la justicia penal y la seguridad, el reglamento impone requisitos estrictos en cuanto a transparencia, precisión, robustez y ciberseguridad. Esto es crucial para asegurar que las tecnologías de IA no solo sean efectivas, sino que también respeten los derechos fundamentales y la privacidad de los ciudadanos.

La doctora en Derecho Penal, en Jerez. La doctora en Derecho Penal, en Jerez.

La doctora en Derecho Penal, en Jerez. / Miguel Ángel González

Uno de los principales desafíos de la IA es la privacidad de los datos. Los sistemas de IA requieren grandes cantidades de datos para funcionar de manera efectiva. Estos datos pueden incluir información personal y sensible que, si no se maneja adecuadamente, podría ser vulnerable a violaciones de seguridad y uso indebido. El nuevo reglamento aborda esta cuestión imponiendo normas estrictas sobre la recopilación, almacenamiento y uso de datos, asegurando que se respeten los derechos de privacidad de los individuos.

La transparencia de los algoritmos es otro aspecto crucial que necesita regulación. Muchos algoritmos de IA son cajas negras, es decir, sus procesos internos son opacos y difíciles de entender incluso para los propios desarrolladores. Esto puede llevar a decisiones automatizadas que son injustas o sesgadas, sin un mecanismo claro para entender y corregir estos errores. El reglamento exige que los algoritmos sean transparentes y auditables, permitiendo a los reguladores y al público en general comprender cómo se toman las decisiones automatizadas y garantizando que estas decisiones sean justas y no discriminatorias.

También hay que considerar que los algoritmos de IA pueden perpetuar y amplificar los sesgos presentes en los datos con los que fueron entrenados. Esto puede resultar en decisiones discriminatorias en áreas como el empleo, el crédito, la justicia penal y otros sectores críticos. El reglamento incluye requisitos específicos para la identificación y mitigación de estos sesgos, asegurando que la IA se utilice de manera justa y equitativa.

En la Universidad de Cádiz, estamos trabajando activamente en esta materia. Se ha establecido una comisión de IA que tiene como objetivo tomar una postura común y desarrollar políticas y prácticas que alineen nuestra investigación y enseñanza con los principios que rigen en la materia.

Finalmente, un marco legislativo debe fomentar la innovación responsable. La IA tiene el potencial de traer enormes beneficios a la sociedad, pero es fundamental que su desarrollo y despliegue se realicen de manera ética y segura. La legislación debe proporcionar un equilibrio entre la protección de los derechos de los individuos y la promoción de la innovación, estableciendo directrices claras y prácticas para el uso de la IA.

En resumen, establecer un marco legislativo para la IA no solo es necesario, sino urgente. Con el nuevo Reglamento Europeo de IA, ya hemos dado un paso significativo en la dirección correcta. La regulación adecuada garantizará que las tecnologías de IA se desarrollen y utilicen de manera que maximicen sus beneficios y minimicen sus riesgos.

–La IA ha abierto un intenso debate entre sus detractores y sus defensores. ¿Dónde está el punto medio?

–El debate en torno a la IA se centra en sus potenciales beneficios y riesgos, y encontrar un punto medio implica reconocer y equilibrar ambos aspectos. La IA, como cualquier tecnología poderosa, tiene el potencial de mejorar significativamente nuestras vidas, pero también plantea desafíos éticos, sociales y legales que deben ser abordados cuidadosamente.

En primer lugar, es crucial reconocer los beneficios indiscutibles que la IA puede ofrecer. En el ámbito jurídico, como se ha mencionado, la IA puede mejorar la eficiencia, reducir costos y aumentar la precisión en la investigación y el análisis legal. En la medicina, la IA tiene el potencial de revolucionar el diagnóstico y el tratamiento de enfermedades. En la educación, puede personalizar el aprendizaje y hacer que la enseñanza sea más accesible. Estos beneficios no deben ser subestimados.

Sin embargo, es igualmente importante considerar los riesgos y desafíos asociados con la IA. La privacidad y la seguridad de los datos son preocupaciones importantes, especialmente cuando se trata de información personal sensible. Además, los posibles sesgos de la IA pueden conducir a decisiones injustas y discriminatorias. También existe el riesgo de dependencia excesiva a la tecnología, lo que podría afectar la capacidad de las personas para pensar de manera crítica y tomar decisiones informadas.

El punto medio, por lo tanto, reside en un enfoque equilibrado que maximice los beneficios de la IA mientras minimiza sus riesgos. Esto implica implementar regulaciones adecuadas que protejan los derechos de las personas y aseguren el uso ético de la IA. Las regulaciones deben exigir transparencia en los algoritmos, protección de la privacidad de los datos y mecanismos para mitigar los sesgos. Al mismo tiempo, estas regulaciones no deben ser tan restrictivas que impidan la innovación y el desarrollo tecnológico.

Es esencial fomentar un diálogo continuo entre todas las partes interesadas, incluidos los desarrolladores de tecnología, los reguladores, los académicos, los profesionales y el público en general. Este diálogo debe centrarse en cómo utilizar la IA de manera que beneficie a la sociedad en su conjunto, abordando las preocupaciones y aspiraciones de todos.

Mariana Solari Mariana Solari

Mariana Solari / Miguel Ángel González

–Recientemente se celebró en Jerez la XXXI Conferencia de Decanos y Decanas de Derecho de España, donde usted intervino en una ponencia titulada ‘Uso de la IA en los estudios de grado y posgrado jurídicos en España’.

–Durante la conferencia abordé cómo la IA está transformando la educación jurídica en España, destacando varios aspectos cruciales. En primer lugar, discutimos la integración de la IA en los currículos de Derecho. Con la evolución tecnológica acelerada, es vital que los futuros juristas no solo comprendan las bases legales tradicionales, sino que también se familiaricen con herramientas de IA que están redefiniendo la práctica del derecho. La integración de la IA en la educación jurídica no solo mejora la eficiencia en la búsqueda de jurisprudencia y la redacción de documentos legales, sino que también prepara a los estudiantes para un mercado laboral cada vez más digitalizado y competitivo.

En mi ponencia, también exploré aplicaciones prácticas de la IA. Herramientas como asistentes virtuales y motores de búsqueda avanzados mejoran significativamente la eficiencia en el ámbito jurídico. Por ejemplo, existen en la actualidad asistentes jurídicos basados en IA que utilizan procesamiento del lenguaje natural para ofrecer resultados precisos en investigaciones jurídicas, reduciendo el tiempo que los abogados dedican a estas tareas. Además, la IA permite simulaciones avanzadas de casos legales, proporcionando a los estudiantes la oportunidad de practicar en entornos virtuales antes de enfrentarse a situaciones reales.

Otro tema central fue el análisis de beneficios y desafíos asociados con la IA en la educación jurídica. Entre los beneficios, destacamos la personalización del aprendizaje, donde plataformas de aprendizaje adaptativo ajustan el contenido según las necesidades individuales de cada estudiante, mejorando la retención de conocimientos y el rendimiento académico. Sin embargo, también discutimos los desafíos, como la privacidad de los datos y los sesgos en los algoritmos de IA. Aquí es relevante mencionar el reciente Reglamento Europeo de IA, que busca regular los usos de la IA para limitar los riesgos asociados, estableciendo una jerarquía de riesgos y obligaciones específicas para sistemas de alto riesgo. Este reglamento es fundamental para asegurar un uso ético y seguro de la IA en el ámbito jurídico, protegiendo los derechos fundamentales y garantizando la transparencia y la seguridad de los datos.

Por último, subrayamos la importancia de preparar a los estudiantes para trabajar en un entorno legal donde la IA jugará un papel crucial. Esto implica no solo enseñarles a usar estas herramientas, sino también a entender sus limitaciones y los aspectos éticos y legales de su aplicación. En resumen, la ponencia resaltó la necesidad de una educación jurídica moderna que incorpore la IA de manera efectiva y ética, preparándonos para los desafíos y oportunidades del futuro.

Comentar

0 Comentarios

    Más comentarios