INTELIGENCIA ARTIFICIAL
¿Dónde queda la trascendencia?
INTELIGENCIA ARTIFICIAL
¿Dónde queda la trascendencia?
Introducción
Para tratar de comprender lo que sucede en un mundo lleno de cambios tan profundos y acelerados como el que nos tocó vivir, debemos agregar a la ecuación -como recomiendan los expertos- los aspectos científico-tecnológicos y filosóficos a lo que ocurre en los ámbitos sociopolíticos, económicos, sociales, culturales y antropológicos de nuestra actualidad.
En particular, hablaremos de la Inteligencia Artificial (IA). Su presencia en nuestra vida cotidiana y la interacción que tenemos con este tipo de tecnología es cada vez mayor. Aún sin que la podamos comprender plenamente, se encuentra de manera casi "omnipresente" en muchos aspectos de la sociedad. Puede todavía parecernos enigmática, pero la IA se sitúa entre nosotros silenciosamente desde hace tiempo en muchas de las actividades que realizamos, así como en servicios y aplicaciones que utilizamos diariamente. Y la mayoría de las veces -sin darnos cuenta-, nos vigila, monitorea, toma decisiones y dirige la manera en que interactuamos con otras personas, trabajamos, compramos, vendemos y hasta cómo nos divertimos.
No podemos negar que los potenciales alcances de la IA son fascinantes, y que nos seduce la idea de que nos ofrece facilitarnos las cosas, inclusive la propia tarea de pensar. Nos promete libertad y menos responsabilidades; nos ha despertado la curiosidad. Sin embargo, ¿todo es válido con tal de alcanzar el tan anhelado "progreso" de la humanidad?
En muchas de las ocasiones, no reflexionamos que ello implica ceder o regalar el poder de toma de decisiones a las máquinas. Y en la opinión de los expertos, llegar a este punto es muy peligroso… tal como lo menciona Mark Coeckelbergh, investigador y académico experto en ética de la IA y la robótica, en una entrevista para el canal de Youtube del investigador peruano, Miklos Lukacs: Una vez que regalamos la decisión a las máquinas, tal vez hay un punto en que las cosas van tan rápido que ya no podemos intervenir…
Y no estamos hablando de la posibilidad de que ocurra una rebelión de las máquinas al estilo hollywoodense, sino de los serios dilemas éticos y problemas sociales que puedan presentarse cuando las personas renunciemos completamente a tomar decisiones. ¿Qué sucederá entonces? ¿cuál es el futuro que nos depara como individuos y sociedad? ¿será que viviremos en un mundo cuyo rumbo sea dirigido o manipulado por algoritmos y modelos matemáticos cuyas decisiones tendrán el sello indeleble de los sesgos de sus creadores? ¿viviremos en una dictadura algorítmica? ¿serán los algoritmos los que decidan quiénes pueden tener acceso a trabajo, créditos y mejores oportunidades? ¿serán los que dicten en qué debemos creer o cómo debemos pensar?
A medida que la IA coloniza las actividades cotidianas, han surgido muchos retos que deben ser abordados de manera inmediata. Por lo tanto, consideramos necesario llevar a cabo un análisis sobre la problemática a nivel global sobre el desarrollo de la Inteligencia Artificial, explorando sus alcances, implicaciones sociales, culturales, éticas, morales y espirituales, así como también, sus riesgos y aplicaciones -a corto, mediano y largo plazo- que puedan ser utilizadas como herramientas poderosas en perjuicio de la humanidad misma.
Tomando esto en cuenta, trataremos de ofrecer una visión más clara del panorama que se avecina con este fenómeno que desafía las nociones tradicionales de responsabilidad, trabajo, relaciones humanas, trascendencia y otros aspectos clave, lo que necesariamente obliga a que se abra el debate en torno al papel de la Inteligencia Artificial y hasta qué punto debería "tomar el control de nuestras vidas". Para ello, buscaremos encontrar respuesta a las siguientes inquietudes: ¿todo lo que podemos hacer con la tecnología es moralmente aceptable? ¿cuáles serán los efectos colaterales de que la IA "gobierne" cada aspecto de nuestras vidas? ¿es verdad que la IA viene a reemplazarnos? Se habla de un "cambio profundo del hombre" ¿en qué consiste?
¿Máquinas que piensan?
Para entender hacia a dónde vamos, es necesario comprender qué es la Inteligencia Artificial, cómo funciona y cómo se divide. No es un concepto nuevo, pues tiene más de 60 años. Hubo muchos que soñaron con máquinas capaces de pensar, pero los primeros en poner el término "sobre la mesa" fueron el informático, John McCarthy, y el matemático, Claude E. Shannon, en 1956 durante una reunión de expertos en el Darmouth College, instituto educativo ubicado en New Hampshire, Estados Unidos. McCarthy, Shannon y los asistentes, pretendían construir una máquina que fuera capaz de replicar la inteligencia humana. Podríamos decir que ellos fueron quienes pusieron "las primeras piedras" de la IA como estudio formal.
Existen muchas definiciones de la Inteligencia Artificial, pero podemos explicarla de la siguiente manera: es la disciplina científica que se basa en la construcción de modelos matemáticos - mediante algoritmos, variables matemáticas, lógicas y mecánicas - que sean capaces de modelar o replicar las capacidades cognitivas del cerebro humano como, por ejemplo: el cálculo, razonamiento, la memorización de datos, comprensión del lenguaje, resolución de problemas y/o toma de decisiones, entre otras más o menos complejas.
Podríamos decir que, de cierta manera, la forma de procesar la información de la IA está basada en la teoría de la cognición desarrollada o biopsicología de Donald Hebb (1949), ya que la programación de información mediante actos repetitivos en un ordenador le permite identificar patrones o comportamientos particularmente medibles (Villalba, 2016). Esto es importante para que se puedan construir los algoritmos aplicados a la IA.
Por lo tanto, estamos hablando de tecnología que pretende imitar a la inteligencia del hombre, pero que, dentro de su concepción limitada y análoga (modelos y algoritmos), considera a la inteligencia desde un sentido meramente funcionalista, porque solo la concibe como la capacidad de resolución de problemas ya sea de forma lógica o creativa. No obstante, la inteligencia humana es mucho más compleja y no se limita solo a eso. Su fin último es conocer la verdad, pero siempre desde perspectivas éticas y morales. Conociendo esto ¿la IA podrá alcanzar ese nivel? ¿podrá desarrollar autoconciencia o emociones?
Sigamos. Entonces ¿cómo funciona la IA? Todo son datos, algoritmos, modelos matemáticos, patrones y reglas. En primer lugar, la Inteligencia Artificial necesita datos -que son generados por las personas- para poder funcionar. Sí, la IA -principalmente las redes neuronales- también se alimenta de todo lo que subimos diariamente a la web: fotos, imágenes, videos, comentarios, artículos, etc. Son su materia prima o alimento, y con ellos se "entrena" al software o a la máquina (así es como "aprende" el "poderoso" Chat GPT). Es decir, los algoritmos y modelos matemáticos procesan esos datos (a veces son pocos, a veces son millones) para tomar decisiones según patrones y reglas establecidas. Tal como lo explica el artículo digital Qué es la Inteligencia artificial del Plan de Recuperación, Transformación y Resiliencia del Gobierno de España.
¿Qué pasaría si hay un apagón o ataque cibernético y la IA no tiene acceso a su "alimento"? Si no tiene datos nuevos o acceso a la web, ¿podría seguir "pensando", aprendiendo y mostrando soluciones "innovadoras" o actualizadas?
Continuemos… Existen diferentes enfoques de la Inteligencia Artificial y diversas clasificaciones, pero una de las más claras es la que publicaron en 1995, los expertos en Ciencias de la Computación, Stuart J. Russell y Peter Norvig, en su libro Inteligencia artificial: Un Enfoque Moderno. En esta obra, los autores proponen cuatro enfoques que explicaremos a continuación:
- Sistemas que piensan como humanos
Este tipo de IA busca imitar a la inteligencia del ser humano en cuanto al proceso de resolución de problemas. Son máquinas que cuentan con información y la procesan con el propósito de comprender y predecir (Cairo, 2011, p.16). Un ejemplo podrían ser las redes neuronales artificiales. Sin embargo, estas redes no dejan de ser un sistema electrónico compuesto de unos y ceros que se combinan y se pasan resultados entre sí, tratando de imitar la manera en que funcionan las neuronas del cerebro humano.
- Sistemas que actúan como humanos
Son máquinas programadas para realizar actividades de forma muy parecida a como las llevan a cabo las personas. Es decir, intenta emular el comportamiento y actuación de las personas en su entorno. En esta categoría entran los robots.
- Sistemas que piensan racionalmente
Utilizan la lógica como alternativa para hacer inferencias (Russell y Norvig, 2003). Es en este tipo de IA donde se busca una mayor eficiencia y precisión en la toma de decisiones a través de algoritmos que imitan la forma en que los expertos en temas específicos aplican sus habilidades y conocimientos para hacer diagnósticos o análisis. Un ejemplo serían los sistemas expertos o software utilizados en finanzas, medicina, ingeniería, etc.
- Sistemas que actúan racionalmente
Clasifican y procesan la información disponible para tomar "la mejor decisión" (Como no tienen autoconciencia -ni cognitiva ni moral-, sus decisiones no se basan en cuestiones éticas). Permiten en su programación, sintetizar algoritmos de identificación de expresión, propios de los mismos usuarios (Kaku, 2014). Aquí entrarían los asistentes virtuales como Siri, Alexa, etc.
Como vemos, todos los sistemas intentan imitar o reproducir ciertas características de la inteligencia humana.
Adicional a esta clasificación, también se ordena a la IA en tres niveles según su potencial. No obstante, es importante aclarar que, únicamente los dos primeros tienen aplicaciones prácticas en la actualidad. El tercer nivel es teórico y podríamos decir que, por el momento, es más bien un sueño utópico o aspiración representada en la ciencia ficción; es el objetivo de los impulsores del transhumanismo (concepto cuya estrecha relación con la IA explicaremos más adelante).
A continuación, una breve descripción de los niveles de la IA:
Nivel 1. IA estrecha o débil: Son sistemas que solo realizan una o pocas tareas específicas. Son limitados en cuanto a que no pueden desarrollar la capacidad de "aprendizaje" o adaptación por sí solos. Más bien, dependen de los datos y parámetros específicos que el programador define previamente para que los algoritmos puedan "aprender" de una manera más precisa y memorizar datos o almacenar información. Sin embargo, siempre harán una sola función porque no pueden desarrollar capacidades distintas a las que fueron programadas. Ejemplos: traductores de idiomas, software de reconocimiento de voz, software de identificación de imágenes, asistentes virtuales como Alexa, Siri, etc.
Nivel 2. IA general o fuerte: Puede aprender de manera "autónoma" y se va "perfeccionando" conforme recaba datos, información e interactúa con su entorno. Es capaz de llevar a cabo distintas funciones y tiene la capacidad de desarrollar habilidades cognitivas como tomar decisiones o resolver problemas según las distintas situaciones que se le presenten. No obstante, sus resoluciones solo se basan en los datos que pueda hallar en la web. En esta categoría se encuentra el Machine Learning y el Deep Learning. Actualmente, es en este punto donde se encuentra la Inteligencia Artificial y busca ser "indistinguible" de la inteligencia humana. Ejemplos: Chat GPT, GBT-3 (OpenAI), Google Bard, Grok, etc. Sin embargo, no todos son capaces de brindar información "en tiempo real", porque, por ejemplo, hasta antes de la última actualización de Chat GPT 4, el modelo de aprendizaje entrenado para generación de textos, mantener conversaciones y seguir instrucciones, solo era capaz de presentar resultados o información actualizada hasta el año 2021.
Nivel 3. IA Superinteligente: Nivel utópico de la IA. Los sistemas serían capaces de desarrollar habilidades cognitivas superiores a las de la inteligencia humana, lo que les permitiría "comprender el mundo" y resolver problemas complicados más rápido y mejor que los propios humanos. ¿Cuál sería su objetivo?, ¿desplazar a los humanos?, ¿reemplazarlos? Esto resulta del planteamiento de que los organismos son algoritmos, y pueden representarse en fórmulas matemáticas (Harari, 2015).
¿Cómo aprenden las máquinas? Hablemos de algoritmos
En conjunto con los datos, los algoritmos son un eslabón fundamental de la IA. Son las instrucciones secuenciales y precisas -previamente establecidas por un programador- que se utilizan para que el sistema, software o máquina, realicen tareas o procesos.
Existen diferentes tipos, pero entre los más significativos están los siguientes, que son utilizados en Machine Learning (aprendizaje de las máquinas):
Algoritmos de aprendizaje no supervisado: son creados para analizar y agrupar datos basados en acciones pasadas y que son parecidos entre sí. Con esta información, trazan patrones sin la ayuda de los humanos. Un ejemplo sencillo, son los algoritmos de recomendación de Spotify, Youtube, Netflix, Prime Video y las demás plataformas de streaming, que toman datos del historial de reproducciones para mostrar sugerencias al usuario.
Algoritmos de aprendizaje supervisado: trabajan con bases de millones de datos etiquetados para ser procesados. Luego de esto, la información obtenida se combina para conformar modelos más complejos. ¿Ejemplos? Sistemas de reconocimiento de voz, de reconocimiento facial, de huellas digitales, así como los coches autónomos (estos últimos utilizan combinación de varios tipos de algoritmos), entre otros.
Algoritmos de aprendizaje por refuerzo: funcionan bajo el sistema de "prueba y error". Se van optimizando según su interacción y "experiencia" dentro del contexto en que son utilizados. Replican las estrategias "exitosas" pasadas cuando se enfrentan a escenarios parecidos. Ejemplos: robots o software que practican ajedrez u otros juegos, drones y coches autónomos, etc.
Algoritmos Árbol de Decisión: se utilizan principalmente para regresión o clasificar información. Su estructura es jerárquica y muy parecida a un organigrama. "Deciden" o "predicen" según las relaciones entre columnas de datos y sus características. Las personas ponen el conocimiento, y estos algoritmos ayudan a "razonar".
Pudiéramos decir que los algoritmos serían el "alma" o motor de la IA. Sin ellos, los datos serían "inútiles" y la IA no sería capaz de realizar tareas, tomar decisiones, "aprender" o "pensar". Y, además, los algoritmos no existirían sin los humanos, quienes son los que colocan los cimientos, los conocimientos, los datos y la estructura sobre la cual se desarrolla la IA, pero también, imprimen inevitablemente sus creencias, prejuicios, defectos y otras características propias de la imperfección del ser humano.
Entre sesgos algorítmicos y el alimento "chatarra" de la IA
Por otra parte, existe un lado muy oscuro de los algoritmos y la IA. Ése que nos advierte la especialista en Big Data, Cathy O´Neil, en su libro Weapons of Math Destruction: How Big Data Increases Inequiality and Threatens Democracy. Según refiere en su publicación, el mundo de la IA está lleno de opacidad y sesgos algorítmicos, por lo que la toma de decisiones automatizada puede perpetuar la desigualdad y tener impactos negativos en la sociedad. Y es que, de manera intrínseca, los algoritmos entrenados en grandes conjuntos de datos históricos pueden "heredar" los prejuicios, parcialidades y sesgos de quien los crea o programa. Por ende, también son imperfectos como sus creadores.
Así lo "advierte" la propia empresa OpenAI, desarrolladora de Chat GPT (Chat Generative Pre-Trained Transformer) en el sitio web del software. La firma tecnológica menciona que su programa tiene ciertas limitaciones, entre ellas: "Puede producir ocasionalmente instrucciones dañinas o contenido sesgado." Pero también "avisa" que puede "ocasionalmente generar información incorrecta".
Esto llama poderosamente la atención, porque en la era de las fake news, nos damos cuenta de que, redes neuronales que procesan grandes modelos de lenguaje (LLM), como el proyecto GPT-2 (antecesor de Chat GPT), fueron entrenadas con información que provenía de sitios como Wikipedia, foros de noticias alimentados por los usuarios como Reddit y redes sociales como Twitter - ahora X -, donde no toda la información es real o existe la posibilidad de que no vengan de fuentes fidedignas. Así lo dio a conocer un artículo publicado el 3 de octubre de 2023 en la web de la revista Rolling Stone, donde la autora, Lorena O´Neil, señala que Timmnit Gebru, ex dirigente del grupo de IA ética que formaba parte del proyecto "IA responsable" en Google, se percató de que los sistemas, aún en etapa experimental, eran entrenados con este tipo de fuentes, lo que aumentaba el riesgo de la presencia de sesgos al momento de que estas tecnologías fueran lanzadas al mercado. Luego de conocer la procedencia de los datos utilizados para "entrenar" al predecesor del chatbot de moda, Gebru reportó lo siguiente en un documento que redactó para Google sobre los LLM: Se ha demostrado que los datos de entrenamiento tienen características problemáticas que resultan en modelos que codifican asociaciones estereotipadas y despectivas según género, raza, etnia y estado de discapacidad.
Sabiendo esto, ¿podríamos confiar plenamente en que una IA que sustituye a un juez actúa de manera justa al dictar sentencia a una persona?, o, por ejemplo, ¿una IA que busca a los candidatos para un puesto de trabajo, puede ser equitativo y elegir al "mejor" sin que se presente una situación de discriminación inadvertida?
Es realmente preocupante, porque si los datos históricos reflejan un sesgo hacia cierto género, etnia o religión en posiciones específicas, los algoritmos pueden perpetuar esos patrones al seleccionar futuros candidatos. Esto socava la equidad y la igualdad de oportunidades en el área laboral, lo que implicaría que unos individuos se beneficien por el sistema, mientras que otros se vean fuertemente perjudicados a pesar de estar cualificados para el puesto. En este caso, la automatización contradice valores fundamentales de justicia social. Si esto lo trasladamos al mundo de los préstamos bancarios u otras situaciones, el panorama podría ser aún más preocupante.
Al final, la IA depende de las personas, quienes son las que le dan mantenimiento, la desarrollan y/o la programan…
Hablando de Chat GPT, hay que reconocer que nos ha sorprendido su capacidad para sostener ciertas conversaciones, generar textos y trabajos completos en cuestión de segundos. Sin embargo, parece que no todo lo que brilla es oro. Durante la conferencia "Ni inteligente ni artificial" (mayo 2023) para el evento titulado: ¿El Fin de la Realidad?, la escritora y periodista experta en tecnología, Marta Peirano, "desenmascaró" al popular software. La especialista ibérica señaló que el chatbot de OpenAI no es capaz de pensar por sí mismo, pues se trata solo de un modelo de lenguaje generativo que se alimenta de la web 2.0 (artículos, blogs, RRSS) y elige de forma estadística cuál es la palabra más adecuada que va después de la palabra anterior. No distingue la realidad de la ficción; solo pone una palabra delante de otra. Si es así, ¿es correcto llamarle inteligente?
Y no solo es el chatbot de OpenAI el que se "alimenta" de todo lo que encuentra en la web, ya sean datos "nutritivos" y/o datos "chatarra", como fake news, opiniones de blogs, RRSS, etc. A inicios de noviembre 2023, Elon Musk dio a conocer "Grok", la inteligencia artificial que utilizará X – antes Twitter- y eventualmente su empresa Tesla. Según el magnate, este modelo generativo de lenguaje competirá con Chat GPT y Google Bard. Musk aseguró que su programa de IA será mejor porque puede dar respuestas más informadas y actualizadas porque tiene acceso en tiempo real a la plataforma X, aunque solo quienes tengan suscripción Premium + de X -la más costosa- podrán usar esta herramienta. Pero ¿el hecho de alimentarse de Twitter asegura que sea información real y sin sesgos? Será capaz de dar respuestas rápidas, sin embargo, ¿la inmediatez está por encima de la verdad?
Abrimos hilo de datos curiosos: Elon Musk fue uno de los cofundadores de Open AI en 2015; salió tres años después. Microsoft -de Bill Gates- ha invertido más de mil millones de dólares en OpenAI. La empresa de Gates -que tiene una de las nubes más grandes en el mundo- también tiene alianzas con NVIDIA, una de las corporaciones líderes en el sector de las tarjetas gráficas para videojuegos, las cuales, según Peirano, son excelentes para modelos de redes neuronales por el tipo de proceso que realizan. ¿Por qué esto es relevante? Porque en la nueva era tecnológica, quienes tengan el control de la producción, así como la logística de los chips y tarjetas gráficas, tendrán tal poder que decidirán el rumbo geopolítico y económico mundial, tal como solía hacerlo el petróleo. Así lo explicó el CEO de Intel, Pat Gelsinger, en una entrevista publicada el 7 de septiembre de 2023 en la web de la revista de negocios Expansión. Cerramos el hilo.
Continuemos. Tal como lo explica Peirano, también las bases de datos -muchas de ellas no son públicas y se guardan como secreto industrial- de los programas de generación de imágenes, provienen de Internet. Toman las imágenes de la web -incluso las que tienen copyright- las procesan y luego las presentan como propias y "olvidan" el pequeño detalle de dar crédito al autor. En realidad, lo único que hacen es construir un pixel detrás de otro para generar imágenes apropiadas. ¿Y la creatividad? ¿verdaderamente sabrá lo que contiene la imagen? ¿son inteligentes? Es que el proceso creativo no solo es tener ideas novedosas, sino también implica un proceso complejo de reflexión en el que se involucra la intuición y una respuesta emocional donde el individuo y su entorno cultural también son determinantes.
¿Entonces la nueva era de la IA representa la extinción del copyright, al menos en internet? Ya existen algunas demandas por cuestiones de plagio, tanto en imágenes como en el tema de la música y otros ámbitos…
Por lo tanto, nos damos cuenta de que hay aspectos que es muy difícil que la IA puede desarrollar por sí sola, como la creatividad, la inteligencia emocional, la empatía, las emociones y el trato humanizado. Mucho menos, la autoconciencia, que es propia y única del ser humano. A lo más que pueden llegar, es a simular o tratar de imitar estas características, pero no tienen la capacidad de comprenderlas ni "sentirlas".
Antes de continuar, es importante subrayar que el desarrollo tecnológico implica cuestiones legítimas como la automatización de procesos, ahorro de costos, incremento de las capacidades de producción, entre otras cosas. Es decir, la tecnología -o en este caso, la IA- no es mala o buena, es una herramienta cuya bondad depende de la intencionalidad de su diseño, aplicación y uso; es decir, de criterios de moralidad. El desafío radica en encontrar formas de integrar la tecnología -en este caso la IA- sin sacrificar los principios fundamentales de la humanidad.
Por otro lado, existen ejemplos de cómo se pueden utilizar los "poderes algorítmicos" para ocultar o impulsar -de manera deliberada- aquella información que sea la más conveniente sobre algún tema en específico o para un gobierno, partido o candidato con el objetivo de manipular o influir en la opinión pública o en la decisión de la gente, inclusive en tiempo de elecciones. Por increíble que parezca, en esto han participado actores como el propio FBI, Facebook, Twitter, Youtube, Google, entre otros. Documentado por el New York Post en su artículo Pro-Joe Biden bias is algorithm-deep: Google´s search- &-destroy agenda (Devine Miranda, 2023), se advierte que las grandes compañías tecnológicas realizaron actos de censura a petición de agentes del FBI (laptop Hunter Biden, octubre 2020) y ocultaron información a través de la manipulación de los resultados de búsquedas en Google -en Estados Unidos- para beneficiar a la parte demócrata, en perjuicio de los republicanos (entiéndase Donald Trump) durante el proceso electoral 2020 en Estados Unidos.
Se supone que Google es una plataforma neutral, pero tiene todas las protecciones legales de un servicio público (…) en cambio, sus algoritmos manipulan secretamente las clasificaciones de búsqueda para controlar las opiniones, ya sea lo que compras o lo que sabes sobre un político.
(No abundaremos más en el tema, pero dejamos el link https://nypost.com/2023/09/27/pro-joe-bias-is-algorithm-deep-googles-search-amp-destroy-agenda/ para quien desee consultar la nota.)
Además, ¿tenemos que preguntarle todo a la IA? ¿por qué -de pronto-, pensamos que es una especie de oráculo? Por ejemplo, en el portal web de MVS Noticias, se publicó una selección de los mejores filósofos modernos en 2023, según la IA. ¿Cuál fue el resultado? Su lista fue conformada por los promotores del "Nuevo Realismo" (Markus Gabriel, Maurizio Ferraris y Graham Harman), cuyas raíces provienen de Immanuel Kant, filósofo de la Ilustración (tiempos de la Revolución Francesa) que promovía el racionalismo empírico. ¿Por qué eligió esa corriente filosófica y no otra? ¿quiere decir que ésa está bien y las demás no? Asimismo, llama la atención la elección de las mujeres filósofas más sobresalientes: una de ellas es Judith Butler, quien ha impulsado la Teoría queer (de raíces feministas), que señala, entre otras cosas, que la identidad de un individuo no es fija y no determina quién es. Las demás han presentado trabajos sobre la filosofía y teoría feminista. ¿Por qué las sugirió la IA? ¿lo hizo de manera objetiva? ¿será que sugiere que ese debe ser el rumbo del pensamiento de la humanidad?
La Caja Negra de la IA
Sumado a esto, tenemos que decir que, a diferencia de los seres humanos, los algoritmos no tienen que rendir cuentas a nadie – más que a sus propietarios - acerca de sus "decisiones". Podríamos señalar que gozan de una cierta - ¿o total? - impunidad. Aquí es donde se presenta el dilema de la responsabilidad moral: cuando la IA toma decisiones que antes eran responsabilidad exclusiva de los humanos y algo sale mal ¿quién es el responsable? ¿el algoritmo? ¿la máquina que ejecuta? ¿el desarrollador? ¿los propietarios del sistema?
Es cierto que la IA tiene su "Caja Negra", pero no funciona como la de los aviones, sino al revés… Cuando hablamos de este término en el ámbito de la Inteligencia Artificial, nos referimos a la falta de transparencia en los sistemas algorítmicos, donde puede ocurrir que no sepamos cómo es que la IA llegó a un resultado o tomó cierta determinación.
Para el CEO de Google, Sundar Pichai, la Caja Negra de la IA es la capacidad de los programas o sistemas, de generar habilidades u ofrecer respuestas "de manera inesperada" y que no han aprendido previamente.
"Los algoritmos no son solo matemáticas; son opiniones matematizadas. En cuanto decidimos confiar en ellos, estamos en grave peligro de perder cualquier sentido de evidencia y de argumento real". (Cathy O´Neil, 2017)
A decir del experto en ética de la IA y la robótica, Mark Coeckelbergh, no existe la tecnología neutral, porque utiliza datos de nuestro mundo y siempre hay un sesgo en él. A final de cuentas, como lo menciona el académico en una entrevista con Miklos Lukacs: el sentido lo aportan los humanos, pero, en cualquier caso, la tecnología puede aportarnos los patrones.
Asimismo, es preciso tomar en cuenta la opinión de Geoffrey Hinton, importante informático que trabajó en Google y potencializó la aplicación de las redes neuronales. Luego de renunciar a su trabajo, -a través de diversos foros- el experto en IA comenzó a señalar los riesgos de la IA: las máquinas aprenden de las personas y cabe la posibilidad de que (las personas) estén equivocadas, entonces el "razonamiento" de la máquina podría equivocarse, y sobre esa base, tomar decisiones que afecten terriblemente a la humanidad, sobre todo cuando la información tiene implicaciones morales o está impregnada de ideologías equivocadas.
El "padrino de la IA" también ha dicho que una problemática de estas tecnologías es que pueden presentar respuestas inventadas e irreales por falta de información -procesan contenido de la web- o porque no son capaces de comprender el trasfondo humano de los datos. Por lo tanto, el que una máquina procese información de una manera rápida y precisa, no significa que sus conclusiones sean correctas. Ya en párrafos anteriores nos dábamos cuenta de qué fuentes se alimentaban los antecesores de Chat GPT y el software de Elon Musk.
Según un esquema desarrollado por la Desautels Faculty of Management, de la McGill University (Canadá), publicado en el portal del Foro Económico Mundial, se advierte que la IA puede ser utilizada frecuentemente de manera intencional para manipular y polarizar puntos de vista, a través de la creación de videos deepfake y contenido de audio diseñado para engañar a la gente y denigrar figuras públicas.
De acuerdo con dicho trabajo, la tecnología tiene un papel relevante - intencional o no- como medio para fomentar las divisiones políticas y acrecentar la polarización de la sociedad. Por ejemplo, los algoritmos de recomendación basados en IA pueden mantener atrapados a los usuarios en burbujas de contenido que encaja con la manera en que ellos ven el mundo (creencias, posturas políticas, etc.) limitando el acceso a otras perspectivas y posiblemente reforzando las percepciones erróneas.
Es por todo lo anterior, que la implementación de la IA en diversos sectores de la sociedad ha suscitado preocupaciones cruciales en torno a temas importantes: la transparencia y la responsabilidad moral en el uso y aplicación de estas tecnologías. Pareciera que la ética es relegada a un último plano a pesar de su vital importancia.
Por ejemplo, la incorporación de la automatización en los drones de uso militar plantea un panorama inquietante. En un futuro, el sistema decidirá disparar o no; la IA será la responsable de elegir lanzar proyectiles sobre ciertos "objetivos". ¿Quién nos asegura que los algoritmos de reconocimiento facial no cometerán ningún error? Si falla y hay víctimas inocentes, ¿quién será juzgado? ¿o qué pasará si confunde al "objetivo" con otra persona? De por sí, el hecho de matar a alguien incluye un dilema moral y ético…
Pero estas disyuntivas no solo se presentan con las armas. ¿Qué pasaría si un robot confunde a una persona con un objeto en una línea de producción y eso le cuesta la vida? Bueno, eso ya sucedió en Corea del Sur el 8 de noviembre de 2023, cuando el supervisor -y programador- de un brazo robótico, murió después de que la máquina lo confundió con una caja de alimento y le provocó heridas letales cuando hacía pruebas a los sensores. ¿Quién es el culpable? Según reportes de la prensa, las primeras investigaciones no consideraron al robot como el responsable del fatal accidente, sino más bien, se revisaría si la compañía robótica o la empresa agrícola serían procesadas por negligencia. En un mundo cada vez más automatizado, la atribución de responsabilidad se vuelve más complicada…
No es un tema que debe tomarse a la ligera. Es en este punto donde adquiere relevancia el concepto de "explicabilidad de los algoritmos". Aún más, si lo que está en juego son las vidas humanas. ¿A qué nos referimos? Tal como lo señala Coeckelbergh, el especialista en filosofía de la tecnología: Si alguien más está tomando decisiones sobre nosotros -en este caso la IA o sus dueños – tenemos derecho a preguntar cómo es que tomó dicha decisión, y la contraparte debe responder.
Por lo tanto, los modelos/algoritmos deberían ser diseñados de manera en que las decisiones tomadas fueran transparentes, explicables y comprensibles para los humanos. Esto implicaría el desarrollo de técnicas que permitan rastrear cada "movimiento" y encontrar respuestas sobre cómo se llegó a una decisión en particular, principalmente en el ámbito de la medicina, la impartición de justicia, las finanzas, etc. Pero a la par, es precisa una colaboración multidisciplinaria para construir un marco regulatorio que contemple auditorías, normativas, implicaciones éticas que coadyuven a la exigencia de modelos transparentes. Con ello, se podría garantizar, de cierta forma, la rendición de cuentas por parte de la IA y sus creadores, lo que se traduciría en una mayor confianza por parte de los usuarios. A la par, también es importante la educación y la concientización acerca de las implicaciones éticas del uso de la IA.
Por otra parte, la falta de transparencia en la IA se puede traducir en varias problemáticas adicionales a las que ya se han mencionado. Algunas de ellas son tan delicadas como las vulnerabilidades de seguridad y privacidad. Sin un marco regulatorio robusto, se abre una "caja de pandora" con la facilidad del robo de identidad, la creación de videos e imágenes falsas con nuestros rostros, la suplantación de nuestra voz para cometer ilícitos, entre otras cuestiones.
Moral Machine: ¿la IA y la moral son compatibles?
¿Qué pasaría si dos pasajeros viajan en un carro autónomo, y de pronto, atraviesan la calle 5 personas? Si no detiene su camino, los peatones mueren atropellados; si hace una maniobra para esquivarlos, pierden la vida los dos pasajeros. ¿Cuál sería la "mejor" solución o la más "aceptable"?
Ese es el dilema moral que presenta el sitio web Moral Machine*, donde las personas juegan y crean escenarios para decidir el menor de los males: que la IA del auto arrolle a cinco pederastas que van cruzando la calle, o a dos personas "buenas" que van pasando en el otro carril. ¿Qué decidiría la IA? ¿a quién salvaría y bajo qué criterios? ¿sería ético atropellar a los cinco pederastas con tal de "salvar a las buenas"? O, por ejemplo, ¿qué pasaría si todas las personas implicadas fueran "malas"? ¿su decisión se reduce a solo tomar en cuenta el número y no a los individuos?
Este proyecto nos lleva a la siguiente pregunta: ¿qué pasaría en la vida real? ¿estamos seguros de que las máquinas inteligentes pueden tomar decisiones morales? A fin de cuentas, no sabemos quién diseña o programa los algoritmos que hacen funcionar al coche autónomo. ¿Serán personas con principios?
En este caso, solo aplica a los coches autónomos, pero ¿qué sucederá cuando la IA sustituya a los médicos en un quirófano o administre tratamientos? ¿qué pasará cuando las máquinas tomen decisiones trascendentales? ¿cómo será ese mundo? ¿acaso quedará algo de moral?
Estas preguntas son fundamentales porque la tecnología resulta de la aplicación de principios teóricos, filosóficos e ideológicos, que, al volverse un medio tecnológico, participa de la bondad o malicia de la filosofía que lo inspira. Por eso, cuando escuchamos hablar de IA, podemos experimentar diversos sentimientos. Por un lado, asombro por los increíbles avances y potenciales desarrollos, pero también, nos genera miedo e incertidumbre un panorama en el que la IA sea utilizada de forma indebida, ya sea con intención, por omisión o accidente.
Para que la tecnología sea aceptable moralmente, debe cumplir tres aspectos fundamentales:
- Debe buscar la Verdad (entiéndase Dios)
- Debe propiciar o generar Bondad
- Debe fomentar la Belleza
Adicionalmente, los avances tecnológicos deben respetar la dignidad humana.
El Siglo XXI nos presenta un mundo dinámico pero necesitado de valores humanos (…) Hacer elecciones éticas, hoy en día, significa tratar de transformar el progreso en desarrollo. Significa dirigir la tecnología hacia un humanismo centrado, precisamente, siempre en la dignidad de la persona y de toda la familia humana. (Mons. Vincen Paglia, presidente de la Academia Pontificia para la Vida).
*Moral Machine es una plataforma digital desarrollada por el Massachusetts Institute of Technology (EU); la Escuela de Economía de Toulouse (Francia); la Universidad de Columbia Británica (Canadá); el Instituto Max Planck para el Desarrollo Humano y la Universidad de Exter. Sitio: https://www.moralmachine.net/
Cuarta Revolución Industrial y transhumanismo. ¿Qué pasa cuando se fusionan la esfera biológica y tecnológica?
El vertiginoso avance de la Inteligencia Artificial (IA) ha venido a transformar el mundo actual, pero también quiere configurar el futuro próximo. A diferencia de otros desarrollos tecnológicos en la historia de la humanidad, de la mano de la IA, la Cuarta Revolución Industrial -impulsada por el Foro Económico Mundial (FEM)- no solo pretende cambiar nuestro entorno político, económico, cultural y social, sino que, además, es mucho más ambiciosa y peligrosa, porque busca "transformar" -de fondo- al propio ser humano para convertirlo en un "superhombre". Sin embargo, no se trata de un simple cambio físico o psicológico. Y es que, según el presidente del FEM, Klaus Schwab, para que la humanidad pueda alcanzar el progreso económico y social, es necesario utilizar la IA como el medio para lograr la fusión de la esfera biológica, tecnológica y digital (Internet, 5G, etc.). No es un concepto que nació hace poco. Al menos desde el 2015 ya se planteaba en artículos escritos por Schwab y otros personajes. Así lo sentencia un video publicado por el FEM en su canal de Youtube en 2016: (Durante la Cuarta Revolución Industrial) La idea misma de que el ser humano es una especie de concepto natural realmente va a cambiar y luego, continúa diciendo: Nuestros cuerpos serán de tan alta tecnología, que no podremos distinguir entre qué es natural y qué es artificial. Una predicción perturbadora, ¿no lo creen?
Es tan extraño lo que sucede con la IA y el transhumanismo, piezas fundamentales para la Cuarta Revolución Industrial. Podríamos decir que ambas pretenden ser impuestas a través de formas autoritarias pero silenciosas. Da la impresión de que no tiene sentido preguntar sobre lo que es; solo podemos preguntar sobre lo que podemos hacer con las cosas. La cuestión no es la verdad, sino la praxis (Ratzinger, 2000).
Entonces ¿qué se pretende con la IA? Los avances en el campo de la ingeniería genética permiten la secuenciación de genomas, síntesis de proteínas artificiales, edición genética con fines reproductivos, entre otros procedimientos, los cuales conllevan serios dilemas éticos porque abren la puerta a la tentación de modificarnos como especie con tal de buscar la "perfección".
Cuando hablamos de ciencia y tecnología, se debe distinguir entre lo que es posible y lo que es necesario moral y racionalmente (…) La posibilidad no puede justificar su realización. El progreso científico nunca debe estar por encima de la moral y debe garantizar el respeto a la dignidad de las personas.
Tal vez, encandilados por el brillo de un futuro prometedor, los atractivos avances y las seductoras promesas de los cantos de sirena entonados por la IA, no hemos reflexionado hacia a dónde vamos… Y es que cuando las invenciones del ser humano atentan directamente contra la Ley Natural, suelen presentarse consecuencias no deseadas que afectan -tarde o temprano- a la naturaleza y al propio hombre.
¿Una nueva religión?
El transhumanismo necesita "instrumentalizar" al hombre para potenciar sus capacidades cognitivas y físicas. El objetivo es lograr una transición de Homo Sapiens a Homo Deus. No obstante, ¿cuál es el costo de alcanzar esa evolución a superhombres? Aquí la respuesta: Cuando la tecnología nos permita remodelar la mente humana, el Homo Sapiens desaparecerá […] los humanos cambiarán gradualmente primero una de sus características y después otra, hasta que ya no sean humanos (Harari, 2015).
Somos probablemente una de las últimas generaciones de Homo Sapiens. En un siglo o dos, la Tierra será dominada por entidades que serán muy diferentes a nosotros (…) porque en las próximas generaciones vamos a aprender cómo diseñar cuerpos, cerebros y mentes, y éstos, serán los principales productos de la economía. No los textiles, ni vehículos ni las armas. Con tal detalle, lo anunció el historiador, Yuval Noah Harari, principal filósofo y pensador del Foro Económico Mundial durante la reunión anual del propio FEM en 2018.
Lo realmente preocupante es cuando llegamos a ese punto donde la IA converge con el transhumanismo, porque la Inteligencia Artificial no solo tiene una construcción teórica y técnica sustentada en matemáticas, sino fundamentalmente, también parte de corrientes filosóficas como el cientificismo y el evolucionismo reduccionista, igual que el transhumanismo.
Pero ¿qué es el cientificismo? Es una pseudociencia que intenta pasar por verdades científicas (comprobadas empíricamente o deducibles de conclusiones experimentales establecidas empíricamente) afirmaciones filosóficas asumidas de forma acrítica y enteramente a priorista. (Marmelada, 2002). Se trata de una manipulación ideológica de la ciencia, pues las aseveraciones se vuelven dogmas a pesar de no ser una conclusión extraíble de los métodos de investigación científica (Marmelada, 2002).
Desde el siglo XIX, muchos "intelectuales" positivistas han querido elevar la ciencia al nivel de una deidad, pues aseguran que es la única modalidad válida de conocimiento objetivo, pero esto inevitablemente lleva a la negación de otras modalidades del conocimiento humano como la filosofía y la teología (Marmelada, 2002).
Para los transhumanistas, la base para poder incrementar el poder humano es fusionarnos directamente con nuestras herramientas para dar paso a una transformación-mutación de un ser orgánico a uno inorgánico. Es por ello, que uno de los sueños de los transhumanistas es la construcción de un hardware que procese información a velocidades exponenciales y sea capaz de emular a la inteligencia humana con superordenadores (Villalba, 2016) para hacerlas indistinguibles una de otra. En este punto, se alcanzaría la "singularidad tecnológica" donde se podrá compartir capacidades de inteligencia humana-máquina en escenarios biológicos y no biológicos (Hottois, 2015).
¿Cuál es el objetivo? ¿crear un intelecto agente colectivo artificial que anule a la inteligencia individual? (Breide, 2022)
¿Será eso por lo que la Cuarta Revolución Industrial presenta al transhumanismo como la política pública que debe aplicarse a nivel mundial? Se le muestra como la "filosofía" que, de la mano del conocimiento científico-tecnológico, llevará al hombre a incrementar su capacidad intelectual, física y psicológica. Fiel al cientificismo, no admite otra manera. Tal como lo profesan los filósofos e ideólogos que la impulsan, la bioingeniería ayudará a reescribir el código genético del ser humano y reconectará sus circuitos cerebrales, modificará su equilibrio bioquímico… (Harari, 2015).
Microsoft presentó en 2016 su proyecto Programming DNA, en el que trabajaba con ADN como material programable para crear computadoras biológicas a nivel molecular. Asimismo, Elon Musk pretende "evolucionar" el cerebro humano mediante la ayuda de chips e IA para que pueda desarrollar capacidades antes impensadas. Ya se han hecho experimentos de implantes cerebrales con primates, pero desde hace algunos meses, su empresa Neuralink recibió la aprobación de la Administración de Fármacos y Alimentos (FDA) para llevar a cabo estudios de implantes cerebrales en humanos en Estados Unidos.
Por otra parte, en un mundo data céntrico, en donde la IA será la protagonista, la humanidad podría dividirse en individuos "deseables" y no deseables", donde exista una gigantesca brecha de desigualdad, porque la evolución no será para todos. El FEM apunta que, según estimaciones optimistas, alrededor del 50 % de los empleos serán automatizados. Hablando con datos duros -e impactantes-, el Fondo Monetario Internacional (FMI) -citado por el sitio Business Insider México- y Saadia Zahidi, directora gerente del Foro Económico Mundial (FEM), predijeron desde el 2020, que, en los próximos cinco años, 85 millones de empleos desaparecerán con la llegada de la IA, pero, "gracias" a la automatización, se abrirán 97 millones de puestos de trabajo. Si hacemos una sencilla operación, nos damos cuenta de que, en realidad solo se crearían 12 millones de nuevos empleos a costa de eliminar 85 millones. ¿En qué condiciones serían estos puestos de trabajo? Porque, a pesar de todos los avances, las máquinas siempre necesitarán a los humanos para su desarrollo, mantenimiento y darle un "toque humano". Sin embargo, esto implicaría, como dice Peirano, una degradación de los empleos, en donde el pago sería muy inferior a lo que se recibe actualmente, porque las actividades que realizarían las personas serían menores y distintas. Por ejemplo, a un maestro ya no se le pagaría como tal, porque se volvería un "asistente" de la IA que imparta las clases. Visto de esta forma, lo mismo sucedería con otras profesiones, como la de redactor, escritor, etc. En este escenario, las grandes corporaciones que sean dueñas de la IA contratarían por menos dinero a quienes realicen tareas como "moderar" a Chat GPT y tratar de hacerlo "menos tóxico", "más preciso" y "más humano". La huelga del Sindicato de Actores de EU (SAG-AFTRA) y la alianza de Productores de Cine y Televisión, que se prolongó por casi 4 meses en 2023, fue un claro ejemplo de lo que se puede presentar con la irrupción de la IA en todos los ámbitos, pues los involucrados pedían una regulación de su uso en las producciones, pues guionistas y actores se verían seriamente afectados. Como dato: ya se han registrado más de 45 mil despidos en el sector cinematográfico a causa de la automatización.
No podemos dejar de lado un punto importante sobre la naturaleza reduccionista de la "perfección" tecno-biológica: Modificar nuestra naturaleza fusionándonos con máquinas nos reduciría a meros procesadores de datos e información (Lukacs, 2016). Por lo tanto, desaparecerían derechos intrínsecos del hombre, como la dignidad, identidad y libertad.
Esto daría paso a lo que Harari ha nombrado como el Homo Inutilis, ya que dentro de los vertiginosos avances, miles o millones de personas que conformen la clase inútil no tendrán cabida, porque para alcanzar la plenitud se dará prioridad a la protección de los mejor adaptados a las exigencias del proceso evolutivo. Estas exigencias tecnológicas tendrán altos costos, lo que implicaría que solo unos cuantos "privilegiados" podrán costearlos y serán los "elegidos" para formar parte de un nivel superior de perfección ontológica. En este panorama, los valores tradicionales serían disueltos y sustituidos. La realidad, y, sobre todo, la verdad dejaría de ser relevante por el dominio de un relativismo y escepticismo moral.
¿Qué pasará con el resto? Como lo apunta el artículo digital, "La Inteligencia Artificial transforma nuestra estructura social: el ascenso de las clases inútiles" (Ghezzi, 2022), que cita a Harari al referirse a esa nueva clase social que no tendrá utilidad militar ni económica, y, por lo tanto, no tendrá poder político. Entonces, serán marginados del mundo laboral y social; no tendrán manera de obtener ingresos. Si las personas no tienen empleo, no pueden pagar impuestos. Sin posibilidades de superación, sin trabajo y sin oportunidades ¿qué propósito tendrán en la vida? En una sociedad controlada por la "religión" del dataísmo, se abre un panorama donde sea posible imponer una Renta Básica Universal para que ellos puedan subsistir. En este punto, se acabaría la libertad. ¿De dónde saldrían los recursos? Desde hace algunos años, Elon Musk y otros multimillonarios, han propuesto que se cobren impuestos a los robots para que esos recursos se destinen a un ingreso básico para todos y atención médica. También en 2017, Bill Gates se pronunció en ese mismo sentido en una entrevista para Quartz, una revista de economía. El filántropo dijo que ese gravamen también podría aplicarse al entrenamiento de personas laboralmente desplazadas para que desempeñen labores como cuidado de ancianos o educación de niños.
¿Qué hay detrás de esas propuestas? Si lo analizamos, pareciera más bien, una manera "bonita" de nombrar a la implantación deliberada de un socialismo "tecnocrático" como forma de vida -y control- en la era digital-automatizada.
Por su parte, el historiador israelí plantea en su artículo "El Ascenso de la clase inútil", escrito para la web de la organización TED, que una "solución" para la "clase inútil" sea mantenerla ocupada con drogas y juegos de computadora. Y continúa diciendo: Personas innecesarias podrían pasar cada vez más tiempo dentro de mundos de realidad virtual 3D que les proporcionarían mucha más emoción y compromiso emocional que la monótona realidad exterior.
Para darse una idea de esto último, bastaría leer la novela de ciencia ficción Ready Player One, escrita por Ernest Cline en 2011, la cual también fue llevada a las pantallas de cine en 2018 con el mismo nombre.
El destino final del hombre devoto de la ciencia no será caer en manos del poder de un procesador de datos, previamente programado por otro hombre, el futuro previsible del hombre sería el de caer víctima del dominio de otros hombres (Breide, 2022).
¿Quién gobernará en la era de la IA?
Ahora nos podríamos preguntar: ¿quiénes van a gobernar el futuro tecnocrático planteado por el transhumanismo? Para responder, citaremos a Harari nuevamente: ¿qué aspecto tendrán los futuros amos del planeta? Esto será decidido por las personas que poseen los datos. Aquellos que controlen los datos, controlarán el futuro, no solo de la humanidad, sino el futuro de la vida misma.
Sin embargo, dicho autor no se refiere a datos sobre hábitos de compra o consumo, sino más bien, a los datos biométricos, los cuales tienen un papel fundamental para el sueño transhumanista. Según describe el filósofo, como humanidad, hemos alcanzado el punto en el que podemos hackear seres humanos y otros organismos. (Esto lo dijo en 2018). Pero ¿es posible? ¿a qué se refiere? Harari dijo que para poder hackear a un ser humano son necesarios superordenadores -los cuales son posibles gracias a la IA- que te den mucho poder computacional y muchos datos biométricos. Con ambas cosas -según Harari- se pueden desarrollar algoritmos bioquímicos que llegarán a conocer mejor a las personas que ellas mismas, incluso, que sean capaces de decirnos quiénes somos y poder manipular fácilmente. Aquí entra el dataísmo, pues todo lo que dicten los datos deberá ser tomado como dogma.
Algunos datos relevantes: Según una nota publicada por el diario CNN, el 1 de mayo de 2023 en su página web, la aparición en público de Chat GPT-1 (2018), despertó una "feroz competencia" entre los gigantes tecnológicos como Microsoft, Google, IBM, Amazon y otras como Baidu y Tencent, para trabajar en aplicaciones de IA para incorporarlas en sus servicios o productos. ¿Comenzó la carrera por la posesión de los datos? Ya vimos en párrafos anteriores que Microsoft tiene millonarias inversiones en Open AI, tiene una de las nubes más grandes -solo por debajo de Amazon-, trabaja en proyectos de programación de ADN y posee alianzas estratégicas con una de las firmas tecnológicas líderes en tarjetas gráficas de video.
Por otra parte, Intel completó la construcción de la supercomputadora Aurora en noviembre de 2023, que se convertirá en el segundo superordenador más potente del mundo al ser capaz de realizar 2 trillones de operaciones en un segundo. El primer lugar se llama Frontier (AMD y HPE) y hace 15 quintillones de operaciones por segundo. De acuerdo con The Wall Street Journal, citado por el diario Reforma, además de procesar datos, realizará tareas como analizar conexiones dentro del cerebro. Cabe mencionar, que las supercomputadoras más poderosas del mundo utilizan el sistema operativo de código abierto -100% personalizable- Linux. ¿Podemos imaginarnos hacia dónde estarían apuntando? Recordemos las palabras de Harari sobre quiénes serán los amos del mundo. Además, ya vimos quiénes poseen gran parte del mercado de las tarjetas gráficas.
Jugando a ser como dioses
¿Puede una creatura autonombrarse dios, solo por el simple hecho de pretender serlo? ¿los avances en el conocimiento científico pueden impulsar al Homo Sapiens a un nivel superior a su propia naturaleza? ¿qué pasa cuando una creatura pretende tomar el lugar de su Creador?
Harari aseguró -en la misma reunión del 2018- que un sensor biométrico puede traducir todos los procesos bioquímicos en el cuerpo y el cerebro en signos electrónicos que una computadora puede almacenar y analizar. Gracias a esto, los algoritmos podrán predecir los deseos y manipular las emociones de las personas… Así se abre la puerta a que se pueda hackear organismos y rediseñar el futuro de la vida misma… Imaginemos ese escenario.
La ciencia está reemplazando a la evolución por selección natural con la evolución por diseño inteligente. No el diseño inteligente de algún Dios por encima de las nubes, sino nuestro propio diseño inteligente como humanidad, y el diseño inteligente de nuestras nubes, la nube de IBM, la nube de Microsoft... Estas son las nuevas fuerzas motrices de la evolución (Harari, 2018).
Pregunta: ¿Los humanos tenemos el derecho a jugar a ser creadores y manipular la vida?
Tal como lo explica el Dr. Rafael Breide, para el historiador israelí Yuval Noah Harari, Dios no tiene cabida en la concepción del mundo transhumanista, ya que, en un universo regido por el cambio constante, no puede existir un Ser inmutable (Breide, 2022) como nuestro Creador.
Entonces ¿de qué se trata? ¿no era una revolución industrial nada más? Porque, según lo referido por el historiador del FEM, estos avances permitirán una enorme transformación en la esfera biológica. La irrupción de la ciencia en la creación de la vida inorgánica formada por diseño inteligente irremediablemente nos llevaría a un escenario con la presencia de nuevas especies. ¿Serán sujetos de derecho? ¿cómo se les juzgará? ¿cómo será esa nueva sociedad?
No es ciencia ficción. Ya hay proyectos de ingeniería genética que trabajan en la creación de "nuevos organismos" a partir de la combinación de ADN distintos, así como la manipulación e implementación de células genéticamente modificadas en organismos vivos. En específico, un estudio del Instituto de Biomedicina y Salud de Guangzhou en China dio a conocer en noviembre de 2023, el primer mono quimera -que sobrevivió solo unos días- como parte de un estudio que pretende usar células con alteraciones genéticas para asemejarlas con las humanas para -en un futuro- buscar la cura a enfermedades neurodegenerativas. No es el primer experimento, puesto que ya se han trabajado en quimeras humano-animales, en los que se han combinado células de personas y de especies animales. Imaginemos por un momento la irrupción de estos organismos en el mundo real. ¿No resulta aberrante? ¿qué puede resultar de esto? ¿es moralmente aceptable?
En su libro Neo entes (2022), Miklos Lukacs señala que el proceso para lograr el triunfo del transhumanismo tiene sus bases en lo que decía Michel Foucault, sociólogo e historiador del siglo XX: para alcanzar el proceso tecnológico, el ser humano (Homo Sapiens) debe morir, pero esa muerte, más bien debe ser su total desnaturalización porque no bastará modificar la forma física del hombre (manipulación genética o incorporación de partes robóticas) ni implantarle chips.
Continuemos. La propuesta del transhumanismo es muy seductora: promete alcanzar la inmortalidad, la felicidad plena y transformar a los humanos en "superhombres". ¿Será posible? Y es que después de tantos miles de años, nos hemos dado cuenta de que lo único que tenemos seguros en este mundo es la muerte. No sabemos cómo ni cuándo, pero a todos nos llega… También, nuestra propia naturaleza -conformada por cuerpo y alma- nos recuerda que somos seres trascendentes que buscamos volver a nuestro Creador.
Sin embargo… ¿podemos vencer a la muerte? En California, Estados Unidos, hay un millonario que piensa que sí. Bryan Johnson es director de la firma tecnológica Blueprint y ha invertido millones de dólares para evitar la muerte. Con la ilusión de "vivir para siempre" ha decidido "delegar" todas las decisiones de su alimentación, ejercicio, descanso, etc. ¡a un algoritmo! Según una nota de la revista TIME, Johnson de 46 años pretende "convertir su cuerpo en un algoritmo antienvejecimiento". El modelo monitorea su cuerpo las 24 horas del día y manda los registros a un grupo de médicos para que trabajen en un régimen de salud que permita que sus órganos se vean como los de un joven de 18 años. ¿En qué consiste parte del régimen? Consumir más de 100 pastillas diarias, tratamientos láser, una estricta dieta y ejercicio intenso. ¡Toda su vida la dirige un algoritmo!
Johnson es el "conejillo de indias" de su propio experimento y pretende que Blueprint sea un producto vendible a la humanidad -aunque no haya probado su éxito-, y por ello, ha comprometido a su directora de marketing a someterse al mismo proceso que él. Sin embargo, los propios científicos han mostrado escepticismo sobre la promesa de la inmortalidad de Blueprint, porque "no se ha demostrado que lo que está haciendo sea seguro, porque algunos de los tratamientos son antagónicos entre sí", según el Dr. Nir Barzilai, director del Instituto de Investigación del Envejecimiento de la Facultad de Medicina Albert Einstein en Nueva York.
Sumado a esto, no debemos perder de vista que, a pesar de invertir todos los recursos, utilizar la tecnología y acudir a todos los avances científicos (que no han podido, ni podrán lograr la inmortalidad de los humanos), la muerte no es opcional; está escrita en nuestros genes (Dr. Pinchas Cohen).
Johnson no es el único que sueña en utopías tecnológicas y con la inmortalidad. Por ejemplo, el exinversor de Facebook, cofundador de PayPal, dueño de Palantir y socio de SpaceX, Spotify y Airbnb, Peter Thiel, ha invertido en empresas que prometen retrasar lo inevitable: la muerte. Una de ellas es Ambrosia, un proyecto que investiga cómo utilizar el plasma y sangre de jóvenes humanos para "combatir el envejecimiento". Además, junto con Jeff Bezos (Amazon) tiene inversiones en proyectos antiedad como Unity Biotechnology. Pareciera que, en el mundo de la tecnología, vencer a la muerte es una obsesión. El cofundador de Google, Sergey Brin, ha destinado fondos para la Singularity University, que busca evitar la muerte. Su director es Ray Kurzweil, un firme creyente de que los humanos podemos fusionarnos con las máquinas. También el director de Oracle, Larry Ellison, ha gastado una fortuna para financiar investigaciones sobre el antienvejecimiento. Solo nombramos algunos personajes y proyectos, porque la lista es larga.
Hay una certeza. Esos proyectos para vencer a la muerte y/o convertirnos en superhombres están destinados al fracaso por una cuestión tan sencilla, pero a la vez, determinante: es imposible que lo inferior dé, por sí mismo, lugar a lo superior (Breide, 2022). Por ello, la Inteligencia Artificial no puede ser ni será perfecta, porque su creador -el hombre- es naturalmente imperfecto.
Sin embargo, no estamos diciendo que la IA sea mala o buena, sino más bien, al igual que la tecnología, su bondad o maldad dependerá del uso o el fin que se le dé. Asimismo, debemos tener en cuenta que es preciso distinguir entre lo que es posible y lo que es necesario moral y racionalmente. El hecho de que algo sea posible no significa que su realización sea justificada. Existen limitaciones éticas, morales y racionales que no deberían ser negociables.
Conclusión
No cabe duda de que la Inteligencia Artificial nos cautiva con sus fascinantes promesas y escenarios futuristas propios de una cinta de ciencia ficción. Pero no debemos olvidar que, al final de cuentas, la IA ha sido creada por nosotros: seres humanos imperfectos. Por lo tanto, no pueden convertirse en máquinas perfectas, porque siempre poseerán las características inherentes de sus creadores. Además, nosotros no podemos crear vida, solo la transmitimos. Por ende, no es posible que las máquinas puedan desarrollar emociones o una "autoconciencia" por sí mismas, como nos lo advierten los impulsores de la IA y el transhumanismo.
El fin de la tecnología es servir y estar subordinada al hombre. Sin embargo, pareciera que se pretende una inversión de los papeles, donde el hombre sea el que sirva a la tecnología y el transhumanismo se sirva también del ser humano. Lo cual implica una degradación automática del hombre y sus derechos naturales. Y este panorama es muy peligroso…
Desde el comienzo de la historia, el hombre siempre ha buscado su propia superación, lo cual es legítimo si se orienta hacia el bien y la búsqueda de la verdad. Nuestra naturaleza como seres creados, nos impulsa inevitablemente a recrear o transformar las cosas para utilizarlas en nuestro propio beneficio. Sin embargo, existen límites que la Ley Natural ha impuesto para mantener el orden. Esta Ley nos ha dejado muy en claro que no podemos ir contra ella. No podemos ser más de lo que ya somos; no podemos vencer el paso del tiempo ni la muerte corporal. La Ley Natural nos ha demostrado que no es conveniente jugar a "rediseñar" la vida… Si desafiamos las leyes naturales y aspiramos a ser superhombres a través de nuestra fusión con las máquinas, tarde o temprano, la cera de nuestras alas se derretirá -como le pasó a Ícaro en la mitología griega- y la caída será demasiado dura por pretender irrumpir a la fuerza en ese nivel superior que no podemos alcanzar ni nos corresponde por naturaleza.
Valdría la pena, pues, escuchar siempre las advertencias de Dédalo a su hijo Ícaro: no vueles demasiado alto ni cerca del Sol, porque las alas pegadas con cera de abeja pueden deshacerse por el calor.
A ese peligroso punto nos pueden llevar los cantos de sirena de la IA y la ambición desmedida por alcanzar el pleno conocimiento e intentar ser como dioses, aunque nunca podamos serlo. Entonces, en la era de la Inteligencia Artificial ¿dónde queda la trascendencia del ser humano? Al final de su vida, el hombre termina en un cementerio, pero su espíritu trasciende más allá porque está llamado a cosas superiores. En cambio, la tecnología es por naturaleza desechable; las máquinas suelen tener una obsolescencia programada. Su ciclo de "vida" termina cuando llega una mejor o un invento que la sustituye, y cuando pasa eso, la máquina es desintegrada para formar una nueva, o de plano, termina en un basurero como chatarra. Con el hombre no ocurre lo mismo.
La tecnología necesita forzosamente al hombre. En contraparte, la tecnología no es un elemento necesario para que el ser humano trascienda, como se pretende que lo creamos. Puede ser un medio, más nunca el fin supremo al que aspiramos como hombres por el simple hecho de que las máquinas solo están compuestas de ceros y unos, partes de metal y/o plástico tornillos, y carecerán siempre de una parte genuina que distingue al hombre de todas las creaturas y artefactos: un alma inmortal.
Bibliografía y fuentes de consulta
Lukacs de Pereny Miklos, Neo entes, Kabod Ediciones, CDMX, 1ra. Edición, 2022, 230 págs.
O´Neil, Cathy, Weapons of Math Destruction: How Big Data Increases Inequiality and Threatens Democracy, Crown Publishing Group, 2016, 259 págs.
Villalba Gómez, Jairo Andrés (2016). Problemas bioéticos emergentes de la inteligencia artificial. Universidad Santo Tomás Colombia https://www.redalyc.org/journal/679/67945904010/ .
Marmelada, Carlos A. (2002) Cientificismo positivista y ciencia positiva hoy. Universidad de Navarra. https://www.unav.edu/web/ciencia-razon-y-fe/cientificismo-positivista-y-ciencia-positiva-hoy#:~:text=El%20cientificismo%20viene%20a%20ser,merece%20el%20t%C3%ADtulo%20de%20conocimiento.
Zahidi, Saadia (2020) Los empleos del mañana. Foro Económico Mundial. https://www.imf.org/external/pubs/ft/fandd/spa/2020/12/pdf/WEF-future-of-jobs-report-2020-zahidi.pdf
Qué es la IA. Plan de Recuperación, Transformación y Resiliencia https://planderecuperacion.gob.es/noticias/que-es-inteligencia-artificial-ia-prtr#:~:text=Russell%20y%20Peter%20Norvig%20establecen,humanos%20piensan%20y%20resuelven%20problemas.
Dos capacidades humanas que no puede replicar la IA. https://www.muyinteresante.es/tecnologia/61744.html
La revolución que llegó a Intel. https://expansion.mx/tecnologia/2023/09/07/la-revolucion-que-llego-a-intel?fbclid=IwAR1BBLg5tgA81Lju2D0DsqqI6ANqE9v372unQk_SmG6lWagRUaM2JgijDJE
Pionero de la IA renuncia a Google para advertir de los "peligros" de la tecnología. Nota CNN en español: https://cnnespanol.cnn.com/2023/05/01/pionero-inteligencia-artificial-google-peligros-tecnologia-trax/
Estas mujeres intentaron advertirnos sobre la IA. https://es.rollingstone.com/estas-mujeres-intentaron-advertirnos-sobre-la-ia/
Supercomputadora de 2 trillones de operaciones https://www.reforma.com/supercomputadora-de-2-trillones-de-operaciones/ar2710945?fbclid=IwAR1IBXsYi-bKVjxA2ED-FhMoWeFUsLpnLPlgb--EZC45ThsGE5jPE84KySA
Por qué Bill Gates quiere que los robots paguen impuestos. https://www.bbc.com/mundo/noticias-39032015
Grok: Elon Musk planta cara a ChatGPT con su propia IA para Twitter y Tesla. https://www.elmundo.es/tecnologia/2023/11/04/6546c187e4d4d8f61c8b4577.html
https://nypost.com/2023/09/27/pro-joe-bias-is-algorithm-deep-googles-search-amp-destroy-agenda/
Mapa de transformación de la Inteligencia Artificial. McGill University. https://intelligence.weforum.org/topics/a1Gb0000000pTDREA2/key-issues/a1Gb00000017LD8EAM
Científicos crean mono quimérico. https://cnnespanol.cnn.com/2023/11/09/cientificos-crean-mono-quimerico-adn-trax/
La búsqueda de la inmortalidad de Bryan Johnson. https://time.com/6315607/bryan-johnsons-quest-for-immortality/
¿Cómo se verá el mundo de los negocios cuando exista una inteligencia superior a la humana? https://businessinsider.mx/como-sera-mundo-negocios-con-inteligencia-superior-a-la-humana/
Videos
Ética de la IA. https://youtu.be/w6wCzI67aos
Entrevista Miklos Lukacs. https://youtu.be/ghvdDSomFXg?si=nnQNFHiI4HgvM68B
"Ni inteligente ni artificial". Marta Peirano. https://youtu.be/rCarkmK4DzE?si=FPhm5Dze2ixvHva_
Yuval Noah Harari. Reunión anual FEM 2018. https://youtu.be/npfShBTNp3Q?si=TkFD-wpDw6V82Q1V
Proyecto Programando ADN de Microsoft: https://www.microsoft.com/en-us/research/video/programming-dna/