INTELIGENCIA ARTIFICIAL. EL PELIGRO DE CONFUNDIR SU NATURALEZA EN LA ADMINISTRACIÓN DE JUSTICIA.
La inteligencia artificial (IA) está en todas partes hoy en día. Desde los asistentes de voz con los que chateamos en nuestros teléfonos hasta los algoritmos inteligentes que ayudan a los médicos a diagnosticar enfermedades, la IA es una gran parte de nuestras vidas. Pero a medida que estos sistemas se vuelven más inteligentes y realistas, ha comenzado a afianzarse una idea preocupante: la creencia de que la IA tiene conciencia. Esto no sólo está mal; es peligroso . Deforma nuestra comprensión de lo que realmente es la IA y crea graves problemas éticos y legales.
Primero, aclaremos qué es realmente la IA.
La IA consta de programas y sistemas de datos diseñados para realizar tareas específicas. Pueden analizar cantidades masivas de datos, encontrar patrones y tomar decisiones basadas en lo que han aprendido. Sin embargo, por impresionantes que parezcan estas habilidades, estos programas, (la IA) no tienen sentimientos, conciencia ni experiencias.
Por otro lado, la inteligencia humana es solo una capa más que se integra fundamentalmente con emociones, conciencia y sentido de uno mismo.
La IA, por el contrario, funciona y se limita únicamente mediante programación realizada siempre, directa o indirectamente por humanos y mediante cálculos complejos llamados algoritmos.
Las respuestas que parecen humanas que a veces obtenemos de la IA son el resultado de una programación inteligente, no de ningún tipo de comprensión o conciencia real.
Los modelos de lenguaje grande (LLM) son programas para producir respuestas que parezcan autorizadas a las preguntas en lugar de que los usuarios tengan que hacer clic para ir a otro sitio web. Por lo tanto, estos programas basados en LLM son fuentes de información poco fiables. Esto se debe a que no son más que máquinas de reconocimiento de patrones de alta potencia. El resultado que generan en respuesta a una consulta se genera mediante probabilidad: cada palabra o parte de una imagen se selecciona en función de la probabilidad de que aparezca en una imagen o frase similar en su base de datos.
Para ser claros, los LLM no son una forma de inteligencia, ni artificial ni de otro tipo. No pueden "razonar". Para los LLM, la única verdad es la verdad de la correlación entre los contenidos de su base de datos.
Es decir a partir del reconocimiento del lenguaje humano, solo informan enlaces estadísticamente probables de texto o imágenes en función de lo que hay en su base de datos. No evalúan ni pueden evaluar las afirmaciones de verdad.
Esto se vuelve más peligroso porque Google, y gran parte de Silicon Valley, suscriben una ideología que el experto holandés en medios José van Dijck llama “datismo”: la creencia de que los datos pueden hablar por sí mismos y pueden interpretarse sin referencia a ningún contexto externo.
Las correlaciones son equivalentes a la verdad para el dataista. Esta es una visión del mundo anticientífica que ignora los estándares metodológicos científicos fundamentales de validez y confiabilidad:
¿Cómo sabemos que algo es verdad?
¿Podemos replicar los resultados?.
Cada palabra o parte de una imagen se selecciona mediante una búsqueda
de IA en función de la probabilidad de que aparezca en una imagen o
frase similar en su base de datos
La idea de que las correlaciones son verdad está en el corazón del algoritmo de búsqueda de Google y el resto de las tecnológicas.
Nuestro hábito de humanizar las máquinas
Una de las razones por las que mucha gente piensa que la IA es consciente es que a menudo los programadores "humanizan" los algoritmos de sus programas. Esto significa que tienden a asignar rasgos humanos a cosas no humanas. Cuando interactuamos con máquinas que pueden hablar, reconocer nuestros rostros o incluso tomar decisiones, es fácil que quienes usan esos programas, o sea nosotros, tiendan a pensar que tienen cualidades humanas.
Las empresas de tecnología suelen aprovechar esto diseñando una IA que parezca más humana. Los asistentes de voz suenan conversacionales, los robots imitan expresiones faciales y los chatbots pueden parecer empáticos. Estos toques hacen que la tecnología sea más fácil de usar, pero también desdibujan la línea entre máquina y ser humano, lo que nos lleva a atribuir erróneamente la conciencia a la IA.
Los peligros éticos
Creer que la IA es consciente puede generar graves problemas éticos. Por un lado, puede hacer que pasemos por alto el trabajo humano real involucrado en la creación y el mantenimiento de estos sistemas. También queda oculta el gran gasto energético de operar los enormes centros de datos que impulsan la IA.
Solo el buscador Google según informa, consumía hasta el año pasado la misma cantidad de energía que la totalidad del gasto energético del transporte aéreo mundial.
Además, esta creencia puede explotarse para incrementar ganancias. Las empresas programas la IA de forma que parezca empática para aplacar a los clientes molestos sin resolver realmente sus problemas.
Peor aún, la IA que parece humana podría usarse para difundir información falsa o manipular la opinión pública, con contenido generado por IA que imita a personas reales para engañar al público
El riesgo de una dependencia excesiva
Pensar que la IA es consciente también puede hacernos depender demasiado de ella. Si comenzamos a creer que estos sistemas pueden pensar y tomar decisiones como los humanos, podríamos confiar demasiado en ellos en áreas críticas como la atención médica, la aplicación de la ley y la seguridad . Esto podría dar lugar a graves errores si la IA malinterpreta las situaciones.
Además, considerar que la IA tiene su propia conciencia podría llevarnos a eludir nuestra responsabilidad y la de quienes programan los algoritmos y los financian.
Las decisiones de la IA se basan en última instancia en la programación y la aportación humana.
Culpar a la IA por los errores puede ocultar la necesidad de una estricta supervisión humana y estándares éticos en el desarrollo de estas tecnologías.
Es difícil exagerar el daño social que supone tener que depender de un
proceso corrupto de organización del conocimiento. El acceso a
conocimientos sólidos es esencial para todos los sectores de la
sociedad.
El uso de IA en la administración de justicia.
Para utilizar la IA de forma inteligente, debemos desacreditar el mito de la conciencia de la IA. Educar al público sobre lo que la IA puede y no puede hacer ayudará a prevenir malentendidos y los problemas que conllevan.
La transparencia de las empresas de tecnología sobre cómo funciona la IA y sus limitaciones es crucial.
También necesitamos directrices éticas y legislación sólida para garantizar que la IA beneficie a la sociedad sin comprometer nuestros valores.
Para decirlo sin rodeos, los buscadores como Google y otros basados en IA deben estar conducidos y administrados por personas con la ética de los bibliotecarios, no por expertos en tecnología. Por ende, la legislación debe regular el uso de estas tecnologías en el ámbito de la administración de justicia asegurando que las mismas esten basadas en el juicio experto utilizado por los bibliotecarios al seleccionar libros para una biblioteca y clasificarlos en un catálogo de fichas.
Reconocer la IA como una herramienta creada por humanos nos ayudará a aprovechar su potencial evitando al mismo tiempo los riesgos de una percepción errónea.
Si bien la IA puede realizar tareas asombrosas y simular la interacción humana, no tiene conciencia . Comprender esto es clave para utilizar la IA de manera responsable y ética. A medida que continuamos integrando la IA en nuestras vidas, recordemos su verdadera naturaleza: una poderosa herramienta diseñada para mejorar las capacidades humanas, no las de un ser sensible. Si tenemos esto en cuenta, podemos maximizar los beneficios de la IA y al mismo tiempo minimizar los riesgos de malentendidos y uso indebido.
No hay comentarios:
Publicar un comentario
Su opinión nos interesa.