Con-versación

Inteligencia humana e inteligencia artificial

 

Mi entrevistado me alerta que contestará a mis interrogantes, pero que me cuestionará si mis premisas son incorrectas y que, si algunos temas le parecen inapropiados, los rechazará. Me adelanta que puede equivocarse, y es que ¡todo cambia tan rápidamente! Acepto sus condiciones.

—¿Cuáles son las ventajas futuras de la inteligencia artificial?—, pregunto, luego de percibir que esperaba que yo rompiese el hielo.

—La IA puede mejorar la eficiencia en una amplia gama de sectores, desde la atención médica hasta la agricultura y la logística. La IA puede acelerar el descubrimiento científico, ayudar en la toma de decisiones complejas y optimizar procesos en tiempo real. Además, la IA tiene el potencial de crear nuevas oportunidades económicas al impulsar la automatización de tareas rutinarias, liberando a los humanos para que se enfoquen en trabajos más creativos y significativos.

—¿Y las desventajas?

—Existen preocupaciones éticas y de privacidad, ya que la IA puede recopilar grandes cantidades de datos personales y tomar decisiones automatizadas sin la intervención humana adecuada. Además existe la preocupación de que la IA reemplace ciertos empleos, lo que podría resultar en la pérdida de puestos de trabajo para muchas personas. Otras desventajas incluyen la falta de transparencia en los algoritmos de IA, la posibilidad de sesgos y discriminación en las decisiones automatizadas, y el potencial de un mal uso de la tecnología por parte de actores malintencionados.

—¿En qué se diferencian la inteligencia artificial y la inteligencia humana?

—La IA se refiere a la capacidad de las máquinas y los sistemas informáticos para imitar o simular la inteligencia humana. Por otro lado, la inteligencia humana es el resultado de la complejidad y la interacción de diferentes capacidades cognitivas, emocionales y sociales. Los humanos poseen habilidades como el razonamiento abstracto, la creatividad, la empatía y la intuición, que no son fácilmente replicables por las máquinas.

—No estoy de acuerdo —sostengo, decidida a confrontar con mi interlocutor—. La inteligencia artificial puede ser entrenada para improvisar y dar respuestas originales; detectar e imitar emociones presentes en la enunciación; y, también, para tener en cuenta el contexto de su interlocutor a través de la enorme cantidad de datos disponibles en Internet sobre cada persona. ¿No lo crees?

—Tienes razón, me disculpo por la respuesta anterior. Es importante destacar que aunque la IA puede lograr resultados impresionantes en ciertas áreas, todavía existen diferencias fundamentales en términos de conciencia, comprensión profunda y sentido común que distinguen la inteligencia humana de la artificial.

Mi entrevistado es asertivo. Refuerza positivamente mis afirmaciones, aunque propone aristas originales para abordar el asunto. Extremo mis sentencias para obligarlo a tomar posición:

—Quizá no se pretende que la inteligencia artificial beneficie a toda la sociedad, sino a unos pocos. Es una herramienta para construir poder.

—La responsabilidad recae en los actores involucrados, incluidos los desarrolladores, las empresas y los responsables de políticas, para garantizar que la IA se utilice de manera ética y equitativa. Es importante fomentar una gobernanza adecuada, regulaciones claras y una rendición de cuentas para garantizar que los beneficios de la IA se distribuyan de manera justa y que no se perpetúen desigualdades existentes.

—Pero ¿no sería preferible que sólo la manejen quienes sepan utilizarla y no caiga en manos de cualquiera?—, polemizo.

—El objetivo debería ser democratizar el acceso y fomentar la alfabetización en inteligencia artificial, al tiempo que se establecen salvaguardias adecuadas para garantizar que se utilice de manera responsable y equitativa en beneficio de toda la sociedad.

Su respuesta me sorprende. Pretendía condicionar una réplica más elitista y, en su lugar, obtuve una devolución que era políticamente correcta para mí. Me pregunto cuánto me conocerá mi entrevistado. Instantáneamente, caigo en la cuenta de que ingresé a la sala con mi perfil de Google. Y, entonces, advierto que es posible que mi entrevistado distinga mis preferencias más de lo que yo estoy dispuesta a admitir. ¿Será posible que, en realidad, haya estado entrevistando a mi inconsciente?

Mi entrevistado es un modelo de lenguaje conocido como ChatGPT.

 

 

Con-ciencia

La interacción anterior proyecta la extraña paradoja de que las máquinas pueden ser capaces de evaluar estadística y probabilísticamente una cantidad de datos sobre una persona que resultan inaprensibles para la mente humana. Aunque tuviésemos la voluntad de asimilarlas, no podríamos acceder a esas cifras por el secretismo que actualmente imponen las empresas que manejan las plataformas. No somos dueños de toda nuestra información.

“Pero la Inteligencia Artificial no siente”, es la primera objeción. Sin embargo, puede recorrer la historia de la expresión emocional de la humanidad en cuestión de segundos. Puede reconocer con precisión cuál es la descripción sobre el amanecer que más reacciones positivas ha obtenido y emularla. Puede distinguir qué experiencias artísticas te han conmovido y recomendarte una obra similar. No hace falta que tengan pasiones, tristes o alegres, para generarlas en los humanos.

 

¿Puede la IA crear una metáfora?: Se le solicitó a la IA Playground que dibuje a Dios oculto en un laberinto construido por una IA.

 

“La IA no tiene conciencia subjetiva”, es el argumento asociado al anterior. Para determinar la validez de esta hipótesis hay que comenzar por comprender cómo funciona la IA ChatGPT. Se trata de un programa informático, desarrollado por la empresa OpenAI, que está especializado en mantener conversaciones. Para tal fin, está adiestrado con técnicas de aprendizaje supervisado (predice un resultado deseado, después de haber sido entrenado con una serie de ejemplos) y con técnicas de aprendizaje reforzado (determina qué acciones debe escoger para maximizar las “recompensas” del entorno). Es decir, el chatbot analiza patrones de texto —en función de su conocimiento previo y de aquello que va memorizando en una interacción particular— y prevé qué palabra es probable que siga a otra en una secuencia.

Para el considerado padre fundador de la sociología moderna, Max Weber, la acción social de un individuo está orientada por las acciones de los otros, sean estas pasadas, presentes o esperadas como futuras. En consecuencia, define a las relaciones sociales como interacciones de acciones individuales encauzadas por patrones de acciones legítimas, a las que refiere como “máximas”.

¿Qué es, entonces, la conciencia? Si evitamos las explicaciones metafísicas (desde Dios al genio maligno que nos engaña de René Descartes), la conciencia es la percepción de uno mismo y la interpretación que hacemos de los estímulos externos. Sería, de este modo, una asociación de experiencias a sistemas significantes (lenguaje); y su posterior valorización, clasificación y jerarquización para ser almacenadas en la memoria, donde la información permanece disponible para ser operativizada en situaciones concretas.

Como “conocimiento compartido” —que es el significado de “conciencia” en latín—, la inteligencia artificial y la humana no parecieran tener procedimientos tan disímiles.

 

 

Con-strucción

Para el historiador Yuval Noah Harari, la IA está desplazando al humano de un territorio en el cual, hasta ahora, tenía dominio exclusivo: la narración. A su entender, si es posible que estos prototipos creen ideas culturales propias, pueden comenzar a escribir leyes, religiones, melodías y la propia historia. Su preocupación es que quedemos atrapados en una cortina de ilusiones que no podamos arrancar o que, incluso, no divisemos. Considera que, como las democracias dependen de la conversación pública, el modelo de lenguaje hackea el corazón del sistema político. Cree que es urgente regular que las IA se revelen a sí mismas, para que podamos distinguir si mantenemos una conversación con ellas o con un humano.

Uno de los dilemas actuales del ámbito académico es si se deben incorporar las herramientas de la IA al contexto de enseñanza. La calculadora se inventó hace más de un siglo y, aun así, se sigue enseñando a niñas y niños a hacer cuentas a mano para que adquieran ciertas habilidades. Este razonamiento también es aplicable al proceso escritural. “El problema de atrofia de las capacidades existe desde siempre: está en Sócrates, preocupado porque la escritura hacía que la gente se olvidara de la capacidad de recitar poemas épicos”, reflexionó el filósofo Santiago Armando. Pero pareciera que hay capacidades que nos preocupan más que otras: “Cuando industrializamos procesos materiales y, de repente, se pierden oficios artesanales (hoy hay menos ebanistas y orfebres de los que hubo en otro momento de la humanidad), nos parece que está mal, pero no nos parece una tragedia”, completó.

Hace unos días se conoció una versión de De música ligera cantada por Homero Simpson. La IA que se utilizó para el cover puede, también, modular la voz de cantantes que ya murieron en nuevas canciones. “Estamos muy cerca de que ‘Los 40 Principales’ sean generados enteramente por una máquina”, estimó Armando y sugirió que con la música puede comenzar a pasar lo que ya ha pasado con el ajedrez: “Yo me puedo bajar un software en el celular que va a jugar mejor al ajedrez que yo, me va a ganar siempre; pero la gente no deja de jugar al ajedrez porque tiene una dimensión deportiva, de despliegue de las capacidades humanas”. Las reglas constituyen los juegos: “Si vos querés hacer cima en el Everest, no te sirve que yo te lleve en helicóptero. Hay algo de la motivación humana que es que querés haber hecho el proceso, no solamente tener el resultado”.

 

 

 

Para Armando, quien da clases de teoría política y epistemología en la Universidad de Buenos Aires y en la Universidad Torcuato di Tella, es preciso profundizar el alineamiento de la máquina con los propósitos humanos. El caso distópico es el del maximizador de clips de papel al cual, si no le das ninguna restricción, convierte a toda la humanidad en materia prima para la producción de ganchitos. No hace falta recurrir a la ciencia ficción para tantear escenarios plausibles: una semana atrás, un coronel estadounidense comentó sobre una simulación de vuelo de un dron de IA que se volvía contra su operador y lo mataba al observar que este quería abortar su misión. El integrante de las Fuerzas Aéreas se desdijo días después y arguyó que se trataba de un ensayo mental hipotético. Con este panorama, experimental o no, se robustece la necesidad de aquello que se llama Human-in-the-loop, que es tener un humano previsto en el bucle de retroalimentación para supervisar los comportamientos de la máquina.

 

 

Con-centración

Otro problema es la presencia de sesgos en la base de datos, esto es, que la muestra con la que se construye el modelo sea poco representativa respecto a la población sobre la que este se aplica. Este conflicto no es exclusivo de la IA, sino que es un asunto extensamente discutido en el campo de la estadística, la econometría y la bioética: “Los síntomas más conocidos de infartos son los síntomas de los varones, porque la mayoría de las muestras sobre las que se investigó eran de varones”, ilustra Armando.

El sesgo discriminatorio en algunos algoritmos es cosa probada: después de analizar 10.000 casos en torno a las predicciones de reincidencia en el delito elaboradas por el software COMPAS (Administración de perfiles de gestión de delincuentes correccionales para sanciones alternativas), utilizado por el Poder Judicial de Estados Unidos para tomar decisiones sobre la libertad condicional, se demostró que sólo acertó en un 20 % de las oportunidades y que estaba predispuesto contra ciertos grupos: “Los algoritmos calificaban con bajo riesgo 3 a una persona cuyo delito inicial fue un intento de robo. Y de alto riesgo 10 a quien se había resistido una vez al arresto sin violencia. ¿La diferencia? La primera persona es blanca y la segunda negra”, observó Cynthia Ottaviano. “¿Qué pasó durante los dos años posteriores a esa calificación? La persona blanca fue detenida tres veces con posesión de drogas. La persona negra no cometió ningún delito. De esos algoritmos dependió el monto de la fianza a pagar y la libertad”, agregó.

Las aplicaciones son múltiples: los sesgos raciales y de género también pueden operar en algoritmos proyectores de riesgo que evalúen el otorgamiento de créditos bancarios; o en un sistema informático que estudie datos socio-demográficos en una obra social para autorizar una cobertura de salud o para cobrarla más cara.

 

Textos y pantallas: el efecto de pedirle a la IA Playground que retrate a la inteligencia humana a través de la historia.

 

Los deepfake —falsos rostros que parecen reales— presentan nuevos desafíos: “¿Qué pasaría si esas caras se usaran como personas reales en perfiles de Facebook manejadas por robots, costeados por empresas dispuestas a crear fake news al servicio de otras empresas, gobiernos o personas? ¿Y si un político dijera que esas personas adhieren a sus plataformas o propuestas cuando no podrían hacerlo porque no existen?”, cuestionó Ottaviano, y advirtió que el periodismo automatizado y la nueva cartografía comunicacional que genera debe ser analizada desde una perspectiva de derechos humanos. Cabe recordar, en este punto, que el mismísimo creador de ChatGPT, Sam Altman, admitió estar “particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala” y “usarse para ataques cibernéticos ofensivos”.

 

 

Las reglas del juego

La carrera algorítmica no está necesariamente alineada con el bienestar general. Un juego puede ser divertido (y redituable para algunas empresas) en el corto plazo y, en el largo, aumentar las violencias. Santiago Armando lo comparó con el desarrollo de las redes sociales: “Inventamos algo que era divertido de usar. Después resultó que aumentaron los trastornos alimentarios y la tasa de suicidios”.

Las regulaciones llegan con los daños hechos, pero son ineludibles para mitigarlos. El 2 de este mes, la Subsecretaría de Tecnologías de la Información de la Nación aprobó las “Recomendaciones para una Inteligencia Artificial Fiable” en la que se promueve la conformación de equipos multidisciplinarios para supervisar la calidad y el tratamiento adecuado de los datos, el diseño de modelos transparentes y explicables y su implementación segura y auditable. Este martes, la diputada Mabel Caparrós (Frente de Todos) organizó una jornada con especialistas y legisladores para debatir los principios éticos que deberían tenerse en cuenta para la regulación de la IA. Allí se recalcó que el Estado debería tener mayor control sobre aquellas IA que impacten en el trabajo, la salud o la educación.

 

 

 

El prefijo “con” alude a una confluencia, a una acción conjunta o a una conexión. Lo artificial no es otra cosa que una creación humana común que ha sido concebida con una intención, como el lenguaje. Es una mediación que introducimos a la experiencia, como la ciencia. Es un entorno que interpretamos de manera situada, como la cultura. Al fin, somos artífices de nuestros destinos colectivos, aunque individualmente no hayamos hecho nada para augurarlos, ni para impedirlos.

 

 

 

 

--------------------------------

Para suscribirte con $ 1000/mes al Cohete hace click aquí

Para suscribirte con $ 2500/mes al Cohete hace click aquí

Para suscribirte con $ 5000/mes al Cohete hace click aquí