Murderbot es una "unidad de seguridad" inteligente diseñada por sus codiciosos señores de la compañía de bonos para proteger a sus clientes a cualquier costo, incluido el asesinato de cualquiera que se considere una amenaza o a sí mismo, si es necesario. Los Diarios de Murder Bot, de Martha Well, son la historia del malhumorado y cínico Murderbot después de que hackea su "módulo gobernador" despiadado y completamente poco ético para liberarse de las riendas de "La Compañía", y de los viajes interestelares de Murderbot mientras descubre su humanidad. Murderbot puede ser un caso extremo y ficticio, pero ejemplifica los dilemas morales que presenta la IA.
La inteligencia artificial (IA) está arrasando con la ciencia y la tecnología, aportando cambios positivos a todas las facetas de nuestras vidas. La cruda realidad es que también se está abusando de ella de las peores maneras posibles, para el crimen y el terror. Sin embargo, posiblemente lo más inquietante es la forma en que la IA desarrollada para el "bien" involuntariamente, a través de sesgos intrínsecos, termina dando resultados poco éticos, a veces con las consecuencias más severas.
Como parte de la naturaleza humana, los sesgos y los prejuicios prevalecen en todas las facetas del gobierno, las empresas, los medios de comunicación... en todas las facetas de la sociedad. Si no se controla, la IA tiene el potencial de exponer prácticas injustas, profundizar los sesgos y amplificar la desigualdad en todos los sectores que toca.
Uso poco ético: cómo se utilizan las tecnologías de IA existentes para todo, desde delitos menores hasta el crimen organizado y el terror atroz, con una mirada más cercana a los deepfakes.
–Errores dañinos en la programación de la IA - Desde casos legales fabricados proporcionados por ChatGPT hasta estimaciones inmobiliarias engañosas, los errores en la IA pueden tener consecuencias nefastas.
–IA subvertida: la IA puede ser hackeada, a menudo de forma más sutil que los sistemas informáticos "normales", lo que hace que los hackeos sean aún más difíciles de detectar. Una vez hackeadas, enviar IA en la dirección equivocada puede ser suficiente para crear estragos.
–IA criminal: en pocas palabras, sistemas de IA desarrollados para ayudar a llevar a cabo o perpetrar delitos o actos de terror. Peor aún, son los sistemas de IA construidos para crear nuevas IA criminales.
–Sesgo: cuando los sistemas de IA asumen sesgos, ya sea a través de la lógica (algoritmos) o de los datos, lo que conduce a resultados sesgados.
Antes de continuar, una pequeña digresión para mencionar lo que antes no hicimos, a saber, las cuestiones éticas más grandes de todas, las que rodean el tema de la inteligencia artificial general, o AGI. Amazon Web Services ofrece una buena explicación de AGI: "La inteligencia artificial general (AGI) es un campo de investigación teórica de IA que intenta crear software con inteligencia similar a la humana y la capacidad de autoaprendizaje. El objetivo es que el software sea capaz de realizar tareas para las que no está necesariamente entrenado o desarrollado". Preguntas existenciales como "¿Cómo podemos asegurarnos de que la AGI permanezca bajo control humano y se alinee con los valores humanos?"; "¿cómo definimos estos valores?", "¿cómo podemos garantizar que los sistemas de AGI estén libres de sesgos y promuevan la equidad?", "¿cómo podemos evitar que los AGI se utilicen de forma maliciosa o causen daños no deseados?" están en el centro de todo el desarrollo de la IA, se discuten ampliamente y, por lo tanto, están fuera del alcance de este artículo.
El arco iris incoloro de la IA poco ética
Primero, algunos antecedentes. Al igual que hay una multitud de métodos y algoritmos que subyacen a la IA y, del mismo modo, las aplicaciones de la IA son ilimitadas, también presenta una serie interminable de enigmas éticos relacionados con la privacidad, la seguridad, la transparencia, los recursos humanos, la academia, las finanzas, etc. No hace falta decir que cada uno de ellos está vinculado a uno o más casos de usos poco éticos en los que la propia IA es innatamente poco ética.
Ignorando las eventualidades del mal, la dominación del mundo, las super-IA tipo Terminator o Matrix, y la gran área gris de comportamientos y funciones de virtud cuestionable, la IA poco ética se puede agrupar en categorías amplias como en la siguiente lista, de ninguna manera exhaustiva, de clasificaciones. Tocaremos brevemente estas categorías, ya que cada una es un tema inmenso en sí mismo, que representa toda un área de estudio.
Las aplicaciones existentes de la IA pueden utilizarse, y se están utilizando, para delitos menores y para los delitos más atroces y el terror indescriptible. Un ejemplo revelador es el turbio y aterrador mundo de los deepfakes. A estas alturas, la mayoría de nosotros tenemos algún nivel de familiaridad con el término, pero por si acaso, aquí está la definición del Diccionario Merriam-Webster:
Deepfake: una imagen o grabación que ha sido alterada y manipulada de manera convincente para tergiversar a alguien como si estuviera haciendo o diciendo algo que en realidad no hizo o dijo.
A medida que la IA subyacente se vuelve más inteligente, los deepfakes mejoran día a día y ya se han utilizado para todo, desde el acoso y el robo hasta el asesinato de personajes, la influencia en las elecciones y la perpetración del terror. Ejemplos recientes incluyen imágenes deepfake sexualmente explícitas de Taylor Swift que se volvieron virales en X, una llamada robótica falsa generada por IA del presidente Joe Biden que alentó a los votantes a no participar en las primarias de New Hampshire, y en lo que se conoce como Pallywood, Hamás ha estado publicando representaciones realistas, muchas de ellas deepfakes generadas por IA, de falsos bombardeos y víctimas para confundir al público y reforzar los esfuerzos de propaganda.
En el caso de este último, la mayoría de las falsificaciones se descubren rápidamente, pero debido a la rápida difusión a través de las redes sociales y los medios convencionales se produce un daño tremendo y persistente antes de que se revelen las falsificaciones. Además, como se menciona en un artículo del New York Times (NYT), "la mera posibilidad de que el contenido de la IA pueda estar circulando está llevando a la gente a descartar imágenes, videos y audios genuinos como no auténticos", por ejemplo, masas inconscientes que no creen en las imágenes repugnantes y muy reales de la masacre del 7 de octubre tomadas por las víctimas y los propios terroristas.
La IA salió mal
Las ominosas trompetas van creciendo lentamente hasta llegar a un crescendo en el musical "Also sprach Zarathustra" que abre 2001: A Space Odesse? ¿Recuerdas HAL, o "Computadora Mágica Programada Heurísticamente", la IA en el libro de lectura obligada / película imperdible que se vuelve contra sus astronautas, asesinando a cuatro de ellos antes de ser "asesinada" por el único sobreviviente?
Entra en Amazon y recibirás una lista de sugerencias generadas por IA basadas en tus compras, búsquedas, comportamiento de navegación y mucho más. Abre la plataforma de redes sociales de tu elección y una IA adaptará los anuncios y toda su experiencia a sus preferencias, basándose en el análisis de sus sesiones anteriores. La lista de áreas en las que la IA ya está integrada en nuestra vida cotidiana es interminable.
Es posible que te estés preguntando en este punto: "Está bien, ciencia ficción aparte, ¿cuál es el problema si una IA de recomendación tiene un contratiempo, ofreciendo un refresco en lugar de palos de golf?" Y tendrías razón, excepto, por supuesto, que estos últimos son errores relativamente inofensivos cometidos en aplicaciones menos consecuentes de la IA. En la práctica, los errores de IA pueden tener consecuencias empresariales, económicas, sociales, políticas y legales nefastas, por nombrar algunas. Y cuanto mayor sea la dependencia, mayor será el potencial de desastre, por no mencionar que alimentará la desconfianza en la IA.
Considere los siguientes ejemplos: "ChatGPT alucina casos judiciales" (revista en línea CIO) – En mayo de 2023, el abogado Steven A. Schwartz presentó una demanda contra la aerolínea colombiana Avianca en nombre de su cliente, Roberto Mata. Schwartz utilizó ChatGPT para investigar casos anteriores en apoyo de la demanda. Durante el juicio, se descubrió que ChatGPT había suministrado a Schwartz cinco casos ficticios. El juez terminó imponiendo una multa de 5.000 dólares a Schwartz y a su socio, Peter LoDuca, y más tarde, desestimó la demanda por completo.