“Atravesamos días comparables con la crisis de los misiles de 1962”, escribe Flavia Costa mientras lee entre líneas la carta abierta sobre IA. ¿De dónde viene el peligro? ¿Qué podría hacerse en seis meses? Entre la potencia y la amenaza de la superinteligencia artificial, el Chat GPT-5 y los algoritmos de red neuronal, cuáles son los desafíos políticos y sociales que llegan. La emergencia de otras lenguas, las narrativas de un nuevo individuo-máquina y las capacidades irremplazables de quienes (¡todavía!) somos cuerpo, y demasiado humanos.
Tras un pequeño pero curioso –¡demasiado humano!— retraso, la semana pasada se difundió por el mundo entero una carta abierta que alerta enérgicamente sobre los riesgos de la inteligencia artificial (IA). Fue firmada por 1125 científicos, académicos, ejecutivos y expertos. Entre ellos, el CEO de SpaceX, Tesla y Twitter, Elon Musk; el cofundador de Apple, Steve Wozniak; el historiador Yuval Harari y el físico y biólogo molecular John Hopfield, inventor en 1982 de las redes neuronales asociativas. En cuestión de horas ya habían sumado su firma más de 50 mil personas.
La carta pide suspender “de inmediato, durante al menos seis meses, el entrenamiento de los sistemas de IA más potentes que GPT-4 (incluido el GPT-5 que se está entrenando actualmente)”. La pausa permitiría evaluar los riesgos que estas tecnologías conllevan y preparar mejor, desde los puntos de vista jurídico, político y cultural, a las sociedades y los Estados para afrontarlos.
El texto advierte que los modelos de lenguaje como GPT-4 ya pueden competir con los humanos en una gama cada vez mayor de tareas y podrían usarse para automatizar puestos de trabajo, para difundir propaganda y falsedades, y poner en jaque la democracia. También plantea, en una perspectiva lejana, que los sistemas de IA podrían reemplazar a los humanos y hasta hacernos “perder el control de nuestra civilización”. La carta es enfática al señalar que las soluciones a estos potenciales escenarios “no deben delegarse en líderes tecnológicos no elegidos”. Pero, ¿de dónde viene el peligro, concretamente? ¿Qué podría hacerse en seis meses?
“Como niños jugando con una bomba”
Las primeras líneas son muy significativas: “Los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad. La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo.” Y casi inmediatamente después: “Los sistemas de IA contemporáneos se están volviendo competitivos para los humanos en tareas generales”. Retengamos tres puntos hasta aquí.
1. El adjetivo “competitiva”
Va acompañado de una nota al pie. Remite, entre otros, al libro Superinteligencia, de 2014, del filósofo sueco Nick Böstrom, fundador de la Asociación Transhumanista Mundial y director del Instituto Futuro de la Humanidad de la Universidad de Oxford.
Böstrom —a quien nadie podría confundir con un crítico de la tecnología— analiza en ese libro las posibilidades de que la humanidad alcance en las próximas décadas la “Superinteligencia artificial”. Y asegura que es justo el rasgo competitivo —es decir, la búsqueda de una “ventaja decisiva”, propia del código técnico capitalista que orienta todos los desarrollos actuales de IA– lo que necesitamos reconfigurar urgentemente si queremos “lograr un resultado beneficioso con el que pudiéramos sobrevivir”.
Sobre el final del libro, Böstrom sostiene que frente a la IA somos “como niños pequeños jugando con una bomba. Tal es el desajuste entre el poder de nuestro juguete y la inmadurez de nuestra conducta. La Superinteligencia es un desafío para el que no estamos preparados ahora y no lo estaremos por mucho tiempo. (…) Para un niño con una bomba a punto de detonar en sus manos, algo sensato sería dejarla con cuidado en el suelo, salir rápidamente de la habitación, y ponerse en contacto con el adulto más cercano. [¿Es esto lo que estarían proponiendo los firmantes de la carta?] Sin embargo, lo que tenemos aquí no es un niño, sino muchos (…). Algún pequeño idiota inevitablemente pulsará el botón de encendido sólo para ver qué pasa.”
En síntesis: Böstrom llama la atención acerca del gap que existe entre la velocidad de desarrollo de las tecnologías y nuestra capacidad humana de limitar los riesgos del uso descontrolado de una inteligencia artificial, es decir, creada por humanos (y en este sentido, perfectamente humana; incluso superhumana, ya que condensa siglos y siglos de desarrollos humanos altamente sofisticados). Pero que comienza a ser capaz de hacer cosas que ningún humano o conjunto de humanos concretos son capaces de comprender de forma cabal. Funciona, pero no tenemos del todo claro cómo o por qué —esta es una de las acepciones actuales del término “cajanegrización”: operar un sistema a partir de un input y un output, sin conocer del todo qué es o cómo funciona el “estado interno” o la “caja negra” que procesa ese input—. Esto es lo que sucede hoy en ciertos desarrollos de la biología sintética y sucedía en las prácticas de hibridación de especies vegetales y animales que se realizaban en el siglo XIX.
En cierto sentido, como veremos en seguida, se parece al tipo de dilema que podríamos formularnos frente al lenguaje natural. Se suele repetir mucho últimamente —parafraseando al filósofo francés Gilles Deleuze— que “nadie sabe lo que puede un cuerpo”. Pues bien; podríamos decir perfectamente también: “nadie sabe lo que puede el castellano”. O “el chino mandarín”. O “el inglés”. En efecto, esa idea está presupuesta en toda nuestra confianza en la poesía o en la literatura como sistemas culturales robustos, con pasado, presente y —confiamos, con aceptable razón— futuro. No confiamos única, ni acaso principalmente, en la capacidad de tal o cual persona, nacida o por nacer; sino que confiamos, sobre todo, en la potencia de la lengua castellana, o de la francesa, o de la portuguesa, para valerse de cuerpos (¿o de otras cosas maquínicas, quizá?) para escribir.
2. ¿GPT-5?
Lo segundo que debemos retener del texto es la afirmación entre paréntesis de que el GPT-5 “se está entrenando actualmente”. Algo que la vocera de OpenAI, Hannah Wong, desmintió en estos días, aunque es razonable suponer que sí está ocurriendo. ¿Por qué no lo estarían haciendo si GPT-4, presentado en marzo y al que vienen probando los usuarios pagos de ChatGPT Plus, es un éxito rotundo –a pesar de las dudas y controversias que suscitó y también por ellas?
El propio director ejecutivo de OpenAI, Sam Altman, admitió en marzo estar «un poco asustado» con el desarrollo de GPT-4. En una entrevista con Rebecca Jarvis de ABC News señaló que particularmente le inquieta “que estos modelos puedan usarse para la desinformación a gran escala», ya que ahora que estos sistemas “están mejorando en la escritura de código de computadora, podrían usarse para ataques cibernéticos ofensivos».
3. La AGI
La carta afirma que estamos ya muy cerca de la inteligencia artificial general, o AGI (“los sistemas de IA contemporáneos se están volviendo competitivos para los humanos en tareas generales”). Esto venía diciéndose hace tiempo. Y es de hecho lo primero que uno lee cuando entra al sitio web de OpenAI:[1] “Nuestra misión es garantizar que la inteligencia artificial general (sistemas de IA que generalmente son más inteligentes que los humanos) beneficie a toda la humanidad”. Y si bien no podemos razonablemente confiar en que busquen alcanzar esa misión benéfica, sí podemos estar seguros de que quieren lograr la AGI.
Por otro lado, coincide con la información que se filtró el 27 de marzo y, como buen espectro, recorrió el mundo, aterrorizándolo. Lo hizo a través de un tuit del desarrollador tecnológico Siqi Chen, matemático de la Universidad de California, que decía:
Me han dicho que GPT-5 está programado para completar su entrenamiento este diciembre y que OpenAI espera que logre AGI [Inteligencia Artificial General].
Lo que significa que todos debatiremos acaloradamente sobre si realmente logró AGI.
Lo que significa que lo hará.
(A mí me llegó poco después, desde Chile. Nunca había oído hablar de Siqi Chen.)
El espectro de un poder inhumano
Para entender de qué se trata la AGI, recordemos la tesis de las tres fases de la IA que popularizó el inventor, escritor y empresario Ray Kurzweil —desde 2012 el director de ingeniería de Google para IA— en su libro La Singularidad está cerca, de 2005. Allí Kurzweil se refería a la posibilidad —por ahora hipotética, pero en la que confían muchos tecnólogos influyentes— , de que en las próximas décadas la Inteligencia Artificial (IA) tal como la conocemos hoy hará, ella también —como tantas industrias en el Tecnoceno— su salto de escala, su “Gran Aceleración”. Que pasará de ser la Inteligencia Artificial Estrecha (ANI, por Artificial Narrow Intelligence) que conocemos hoy —es decir, una inteligencia artificial que se especializa en una tarea limitada, como jugar al Go, hacer transacciones financieras de alta frecuencia u orientarnos en una ciudad— a ser una Inteligencia Artificial General, o AGI (Artificial General Intelligence): una inteligencia artificial que es al menos tan desarrollada intelectualmente como un ser humano, en muy diferentes ámbitos, y que puede establecer relaciones entre esos ámbitos (esto es lo que, según Siqi Chen, estaría por hacer GPT-5 en diciembre).
Y luego seguiría desarrollándose hasta derivar en una Superinteligencia Artificial, o ASI: una inteligencia artificial que es mucho más veloz y cualitativamente mucho más inteligente que cualquier humano, e incluso que la humanidad en su conjunto, en todos los ámbitos. Kurzweil llama a este punto de inflexión la Singularidad, porque cree que es imposible predecir cómo puede “pensar” un ente semejante. Y mucho menos figurarse cómo se desarrollará el futuro humano después de su emergencia. Quienes piensan como él aseguran que una vez que estas máquinas existan, poseerán una inteligencia que será tan incomprensible para nosotros que ni siquiera podemos intuir cómo se alterarían nuestras experiencias de vida. Nos encontraríamos una vez más, como especie, ante un poder eminentemente inhumano, es decir, con valores e intereses, no necesariamente incompatibles, pero diferentes de los nuestros, como eran los de los dioses paganos, los de la naturaleza o el Cosmos.
Es frente a semejante escenario que Nick Böstrom escribió su libro en 2014. Para él, lo más probable es que si las IA se siguen entrenando con el código técnico competitivo que existe hoy —donde los laboratorios compiten entre sí por ser los primeros, donde las estructuras y los contenidos son securitizados y propietarios—, la primera computadora que llegara a ASI entendería inmediatamente que su ventaja estratégica consiste en ser el único sistema ASI del mundo. Y en el caso de un despegue rápido, si un primer laboratorio alcanzara ASI incluso solo unos días antes que su principal competidor, estaría lo suficientemente adelantado en inteligencia para suprimir de manera efectiva y permanente a todos los competidores. Böstrom afirma que esta ventaja estratégica decisiva permitiría que el primer sistema ASI del mundo se convirtiera en lo que se llama un singleton (Böstrom dice que prefiere no utilizar el término Singularidad, pero usa otro parecido). Esto es: una ASI capaz de gobernar el mundo a su antojo. Llevarnos a la inmortalidad o borrarnos de la existencia.
Claro que no todos piensan que esto es posible. Los escépticos, como el cofundador de Microsoft Paul Allen o Mitch Kapor —fundador de Lotus 1, 2 y 3 y cofundador de Mozilla— sostenían ya la década pasada que pensadores como Kurzweil están subestimando la magnitud del desafío. Según ellos, la “asombrosa complejidad de la cognición humana” es el verdadero asunto. Porque si no se comprende científicamente y en profundidad la cognición, es imposible crear el software que pudiera desencadenar la Singularidad. Y en lugar del avance cada vez más acelerado que imagina Kurzweil, Allen considera que hay un constante “freno de complejidad” que hace que una vez que se comienza a investigar un sistema complejo como el que es capaz de desencadenar un pensamiento o una acción social suficientemente sofisticada, las cosas se vuelven más y más difíciles, y la carrera de los “rendimientos acelerados” se frena indefectiblemente.
Redes, bots y sonetos
Es esa complejidad la que se propusieron afrontar —entre otros— el informático británico Geoffrey Hinton, el franco-estadunidense Yann LeCun y, más recientemente, el ruso-israelí Ilya Sutskever, jefe científico y cofundador de OpenAI. Siguiendo una antigua intuición de Hinton acerca de que para “aprender” no eran necesario solo razonamientos lógico-matemáticos, sino también asociaciones complejas, desarrollaron lo que hoy se conoce como redes neuronales multicapa y redes neuronales convolucionales, capaces de aprender por sí solas (lo que solemos llamar aprendizaje automático o machine learning) a través algoritmos de propagación hacia atrás.
Tales desarrollos están en la base de programas como ChatGPT. Estos chatbots son modelos de lenguaje de gran tamaño (LLM, por large language model), ajustados con distintas técnicas de aprendizaje automático. ChatGPT funcionaba inicialmente sobre la base del modelo predictivo de lenguaje GPT-3, introducido en 2020, y se perfeccionó sobre GPT-3.5. Un mes después de su lanzamiento en noviembre pasado, OpenAI calculaba que ChatGPT ya tenía más de un millón de usuarios. Hace pocas semanas, el 14 de marzo, la empresa lanzó la versión que funciona sobre GPT-4, que como decíamos está disponible para usuarios Plus, es decir, los que pagan extra (la gratuita es la versión anterior). Es esta nueva versión la que hizo estallar el asombro y el desconcierto masivo por su gran performance.
Una Superinteligencia Artificial es capaz de gobernar el mundo a su antojo. Llevarnos a la inmortalidad o borrarnos de la existencia.
GPT es el acrónimo de Generative Pre-trained Transformer. “Transformer” es el tipo de algoritmo que actúa como base en el sistema: una red neuronal que aprende contexto —y por ende, significado— siguiendo relaciones en datos secuenciales, como las palabras de esta oración. Se describieron por primera vez en un documento de 2017 de Google y están impulsando un cambio de paradigma en la IA. Entre las cosas que pueden hacer los transformers están la traducción de texto y habla casi en tiempo real, la asistencia a investigadores humanos en la comprensión de las cadenas de genes en el ADN y los aminoácidos en proteínas para acelerar el diseño de fármacos, y la detección de tendencias y anomalías para prevenir fraudes, optimizar la producción en diferentes industrias o hacer recomendaciones en línea. Por su parte, “pre-entrenado” quiere decir que ese algoritmo es entrenado con un corpus masivo de textos, donde se le muestran patrones y relaciones subyacentes en el lenguaje. Y “generativo” quiere decir que el “bicho” puede crear nuevos contenidos (nuevas relaciones, para las que no fue deliberadamente entrenado) a partir de esta base de conocimiento.
En síntesis, un modelo de generación de actividades lingüísticas. Una meta-tecnología. No realiza “una” actividad humana (redactar canciones con rima, responder preguntas de pruebas académicas exigentes, buscar información ordenada: ya serían tres), sino muchas más. Una inteligencia artificial bastante más genérica que la que solo juega ajedrez. Por cierto también comete muchos errores triviales, contiene sesgos y, como sus predecesores, a veces «alucina» –en el lenguaje de los videojuegos diríamos que tiene glitch– brindando información sin sentido. Pero su performance va a mejorar.
El periodista y escritor del New York Times Thomas Friedman contaba el 21 de marzo su enorme sorpresa cuando Craig Mundie, ex director de investigación y estrategia de Microsoft, le mostró su chatbot basado en GPT-4. “Tienes que entender”, le advirtió Craig antes de comenzar su demostración, “esto va a cambiar todo acerca de cómo hacemos todo. Creo que representa el mayor invento de la humanidad hasta la fecha. Es cualitativamente diferente, y será transformador”.
Lo que sigue comentándole Mundie a Friedman confirma la tesis de la carta: “Los módulos de lenguajes grandes como ChatGPT aumentarán constantemente sus capacidades —agregó Craig— y nos llevarán ‘hacia una forma de inteligencia artificial general’, brindando eficiencias en operaciones, ideas, descubrimientos y conocimientos que nunca antes habían sido alcanzables en todos los dominios”.
Después Mundie le hizo una demostración y, según Friedman, lo que vio le hizo entender que el ex asesor de Microsoft se estaba quedando corto. Primero, le pidió a GPT-4 que resumiera el museo donde estaban, Planet Word, y su misión en 400 palabras. “Lo hizo perfectamente, en unos pocos segundos —escribe Friedman—. Luego le pidió que hiciera lo mismo en 200 palabras. Otros pocos segundos. Luego le pidió que hiciera lo mismo en árabe. Con la misma rapidez. Luego en mandarín. Dos segundos más. Luego en inglés nuevamente, pero en la forma de un soneto de Shakespeare. Unos segundos más. Luego, Craig le pidió a GPT-4 que escribiera la misma descripción en un verso abecedario, donde la primera línea comienza con la letra A, la segunda con B y así sucesivamente a través del alfabeto. Lo hizo con una creatividad asombrosa.” [Pueden ver el poema abecedario en inglés en las páginas del NYT].
Finalmente Friedman combina así sus propias ideas con las de Craig Mundie: “La última vez que inventamos una tecnología tan poderosa, creamos energía nuclear: podría usarse para iluminar todo tu país o destruir todo el planeta. Pero lo que pasa con la energía nuclear es que fue desarrollada por los gobiernos, que de manera colectiva crearon un sistema de controles para frenar su proliferación a los malos actores, no perfectamente pero no mal. La IA, por el contrario, está siendo iniciada por empresas privadas con fines de lucro. La pregunta que debemos hacernos es cómo gobernamos un país y un mundo, donde estas tecnologías de IA pueden ser armas o herramientas en todos los dominios, mientras están controladas por empresas privadas y su poder se acelera cada día”.
Dos, tres, muchos chatbots
ChatGPT no es el primer producto de su tipo: desde que se conoció GPT-3, se lanzaron programas como GLaM, LaMDA, Gopher, InstructGPT y Megatron-Turing NLG, entre varios otros, que buscaban realizar tareas, como la comprensión lectora, la verificación de hechos y la identificación de lenguaje tóxico.
Y hasta podría no ser el más interesante. En una entrevista reciente para CBS News, Geoff Hinton (a quien mencionamos antes en relación con las redes neuronales) comentó: “He usado muchas cosas que vinieron antes, por lo cual éste en particular no me parece tan asombroso. (…) GPT-2, una versión anterior, sí me asombró. Pero me asombró todavía más un programa de Google que sabe explicar por qué una broma es divertida. No lo logra en todos los casos, pero sí en muchos. Y eso sí es algo raro”. Se refiere a Pathways Language Model, o PaLM, de 2022.
De allí que la carta llega cuando los sistemas de IA dan saltos cada vez más audaces e impresionantes. También cuando Elon Musk, que se retiró de OpenAI en 2019, espera poder competir con ella (es un argumento que se viene escuchando en estos días). Pero la carta la firman más de 1120 científicos y expertos, además de Musk: ¿por qué lo harían?
Sus capacidades han despertado, así como un entusiasmo considerable, una gran cantidad de preocupación en el ámbito de la educación (con preguntas algo superficiales como: ¿cómo vamos a evaluar ahora?, y otras más importantes, como: ¿qué conocimientos van a necesitar los niños de aquí a 15 años?), en la industria de la ciberseguridad, en las industrias del conocimiento e incluso en la política.
Con respecto al primer tipo de problema, ya se han dado algunas respuestas que es de esperar se volverán típicas, pero insuficientes, en los próximos meses. Una: a partir del 4 de enero de este año, el Departamento de Educación de la ciudad de Nueva York ha restringido el acceso a ChatGPT desde Internet y los dispositivos de sus escuelas públicas. Y dos: en febrero, la Universidad de Hong Kong prohibió usar ChatGPT u otras herramientas de IA en todas las clases, tareas y evaluaciones de la universidad.
En cuanto a la seguridad, en marzo un fallo del ChatGPT permitió a algunos usuarios ver los títulos de las conversaciones de otros usuarios. Poco después de que se corrigiera ese episodio, los usuarios no pudieron ver su historial de conversaciones. Informes posteriores mostraron que el fallo era mucho más grave de lo que se había creído en un principio, y OpenAI informó de que se había filtrado «nombre y apellido, dirección de correo electrónico, dirección de pago, los cuatro últimos dígitos (únicamente) de un número de tarjeta de crédito y la fecha de caducidad de la tarjeta de crédito» de los usuarios. En medio de un clima de zozobra, el 31 de marzo Italia anunció que a partir de ese mismo día bloquearía el acceso de los usuarios de su país al ChatGPT, con lo que se convirtió en el primer país occidental en prohibir ese programa de IA. El organismo gubernamental para la protección de datos anunció que existen preocupaciones relativas a la privacidad y dispuso una investigación “inmediata» relacionada con la seguridad de los datos personales.
Por otro lado, el 26 de marzo, analistas de Goldman Sachs destacaron en el informe titulado “Los grandes efectos potenciales de la inteligencia artificial en el crecimiento económico” que el desarrollo de la IA generativa podría tener “grandes efectos macroeconómicos” y un «impacto significativo» en el mercado laboral. Sólo en los EE.UU. y en Europa, “la IA generativa podría sustituir hasta una cuarta parte del trabajo actual”, agrega el informe. Y a nivel mundial provocar la automatización de unos 300 millones de trabajos a tiempo completo.
Posiblemente sea en la política y en la propia sociedad donde las tareas se vuelvan más urgentes. La carta menciona las más imperiosas. En los niveles global y estatal, crear marcos legales (“sistemas sólidos de gobierno de la IA”); conformar autoridades reguladoras a la altura del problema, que no es principalmente técnico, sino social, cultural y político. Es decir, esas autoridades deberán ser no principalmente ingenieros, economistas o matemáticos, sino expertos en mediaciones, en políticas públicas, en seguridad y anticipación de riesgos, en sistemas y sociedades complejos. A estas autoridades hay que, primero, diseñarlas; esto es, formarlas con trayectos de educación transversal (que deberán incluir a narradores y artistas, capaces de imaginar, figurar concretamente y con narrativas sólidas, escenarios futuros. Siendo cuerpos se piensa con imágenes, sabemos desde Aristóteles, y confirman todos los creativos).
Crear organismos técnicos y expertos capaces de supervisión y seguimiento de estos enormes conjuntos técnicos. Y para nuestro país y nuestra región, reorientar las estrategias de educación y científico-tecnológica, no sólo hacia la “inclusión digital”, sino también hacia la expansión y fortalecimiento de la soberanía tecnológica en IA, así como reorientar las formaciones superiores hacia las nuevas experticias que serán importantes en esta nueva y desconcertante etapa.
Atravesamos días comparables con la crisis de los misiles de 1962. Pero no sería fácil saber quiénes son los oponentes. ¿Las corporaciones? ¿EE.UU. y China? ¿Los humanos y la IA?
Por otro lado, desarrollar normativas y estrategias de seguridad y gestión de riesgo, que ya demostraron ser eficaces en la prevención de accidentes en las llamadas “industrias ultraseguras”, como la nuclear o la aeronáutica. E incluso en las industrias no tan seguras, como las químicas, tal como demostraron las directivas Seveso 1, 2 y 3, emitidas después de diferentes accidentes ocurridos en Italia y Francia entre 1982 y 2001. Hoy, sobre todo después de la pandemia, estas estrategias se han convertido en una prioridad en expansión en toda la industria, en áreas tan diversas como la logística multimodal o el petróleo.
Para todo esto, seis meses parece muy poco tiempo (claro que, si lo que enfrentamos es una escalada de aceleración tecnológica, el tiempo nunca será suficiente). La carta menciona algunos casos donde se llegó a acuerdos de autolimitación en tecnologías con efectos potencialmente catastróficos en la sociedad, como “la clonación humana, la modificación de la línea germinal humana, la investigación de ganancia de función y la eugenesia”. También se llegaron a acuerdos de desarme nuclear. No son perfectos, como dice Friedman, pero tampoco imposibles.
Y al menos la carta provocó algo fundamental, que es causar impacto global. Un efecto de tensión inédito en el campo de la informática al menos desde el caso del Y2K.
Cuando me reenviaron por whatsapp el tuit de Siqi Chen, el comentario siguiente decía: “De esta semana se va a hablar mucho por los próximos 20 años”. Y de hecho, se la comparó con el episodio de la “crisis de los misiles”, de 1962, cuando EE.UU. descubrió que había bases de misiles nucleares soviéticos en la isla de Cuba. Fue una de las mayores crisis de la Guerra Fría, cuando –opinan numerosos expertos– más cerca se estuvo de una guerra nuclear.
La comparación parece referir más al clima de zozobra que a un peligro letal concreto. Por un lado no sería fácil saber quiénes son aquí los oponentes: ¿las corporaciones? ¿EE.UU. y China, o de manera más eufemística “Occidente” y “Oriente”? ¿O los humanos y la IA? Por otro lado, el riesgo no parece ser una muerte “rápida y segura”, sino la combinación –absolutamente indeseable, pero mucho más delicada y compleja de tratar que un arma letal, porque es un conflicto entre sistemas sociotécnicos y políticos complejos– entre una desigualdad cada vez más desequilibrada; una crisis generalizada del empleo en un contexto, no de escasez, sino de abundancia; y de un potencial giro autoritario de los modos de gobierno.
La innovación que viene, la que aún resta diseñar, es la innovación social y política. Una que nos permita orientar el desarrollo, la integración y las formas de apropiación colaborativa de estas tecnologías de una manera realmente democrática.
La innovación que viene, la que aún resta diseñar, es la innovación social y política. Una que nos permita orientar el desarrollo, la integración y las formas de apropiación colaborativa de estas tecnologías de una manera realmente democrática. Lo que requiere un trabajo transdisciplinar y meta-tecnológico a la altura del desafío. Un desafío que se parece bastante a la emergencia, o la invención, no de una lengua, sino de la lengua, la caída en el lenguaje. Pero por parte de máquinas que no son equivalentes a los humanos (no estamos frente a un individuo maquínico del mismo modo en que estamos frente a un individuo humano), sino a seres que, aun sin tener intenciones ni sensaciones físicas, son capaces de combinar sonidos, imágenes, grafos y sus traducciones o transposiciones a diferente soportes audiovisuales e incluso a otras materialidades.
Y acaso llegarán a comprender el mundo. Ilya Sutskever dice: “A medida que nuestros modelos generativos se vuelvan extraordinariamente buenos, tendrán un sorprendente grado de comprensión del mundo y muchas de sus sutilezas. Es el mundo visto a través de la lente del texto. Intentan aprender más y más sobre el mundo a través de una proyección del mundo en el espacio del texto, tal como lo expresan los seres humanos en Internet. Pero aún así, este texto ya expresa el mundo”.
Por Flavia Costa – Arte Jael Díaz Vila
Fuente: (Revisa Anfibia)