Naturaleza AristeguiNaturaleza Aristegui

La Inteligencia Artificial llega al Senado estadounidense

La comparecencia de personas expertas en tecnología ante el Senado estadounidense la semana pasada para hablar sobre los riesgos de la Inteligencia Artificial no es poca cosa. Pero su resultado es agridulce: no existe todavía consenso sobre cómo contener la amenaza de una tecnología que avanza a pasos acelerados.

  • Antonio Salgado Borge
24 May, 2023 08:14
La Inteligencia Artificial llega al Senado estadounidense

Por Antonio Salgado Borge

Algo importante tiene que estar sucediendo para que el Senado estadounidense cite a personas a testificar ante sus integrantes. La comparecencia del director de Open AI –la empresa tras el modelo de lenguaje ChatGPT–, de una funcionaria de IBM y de un reconocido profesor para abordar los inminentes riesgos de la Inteligencia Artificial no es, entonces, trivial o irrelevante.

Este evento ha sido bien recibido en términos generales. Y si este ha sido el caso es porque envía varias señales positivas dignas de considerarse.

La primera y más obvia es que el Senado ha reconocido abiertamente los riesgos de la Inteligencia Artificial (IA), así como su preocupación de entenderlos con la seriedad que corresponde.

Mucho se ha comentado que las legisladoras y los legisladores parecen dar muestras de haber aprendido una lección importante. Hace un par de décadas prácticamente ignoraron el fenómeno de las redes sociales. Cuando quisieron reaccionar, ya era demasiado tarde. Esta historia tiene un triste y conocido desenlace.

Otra señal positiva tiene que ver con el momento en que ha ocurrido esta comparecencia. El Senado estadounidense no esperó a ver al internet saturado de contenidos falsos creados mediante Inteligencia Artificial, a que miles o millones de empleos sean eliminados o a que surja una inteligencia capaz de pensar igual o mejor que un ser humano. Por el contrario, esta institución decidió tomar cartas en el asunto cuando los riesgos de la IA apenas comienzan a materializarse.

A las dos señales anteriores hay que sumar que, a diferencia de lo ocurrido en las comparecencias de los líderes de Facebook o de Google, en esta ocasión las Senadoras y los Senadores optaron por no ridiculizarse. Recordemos que hace algunos años nos regalaron joyas que incluyeron reclamarle al CEO de Google problemas con sus Iphones –un producto de la empresa Apple– o preguntarle al de Facebook cómo hace dinero su empresa cuando ofrece un servicio “gratis”. La semana pasada el Senado evitó este tipo de vergüenzas y cuando menos fue capaz de plantear preguntas relevantes.

Finalmente, también ha sido leída como una señal positiva la posición adoptada durante la comparecencia por todas las partes. Sam Altman, el CEO de Open AI, pidió abiertamente a las Senadoras y Senadores regular la Inteligencia Artificial para contener sus riesgos. A su vez, quienes integran el comité del Senado solicitaron sugerencias a Altman en un tono amable y moderado. Esto indica, al menos en principio, apertura en todos los implicados.

Las señales positivas que hemos revisado son dignas de considerarse. Sin embargo, éstas nos ofrecen una imagen incompleta de lo ocurrido. Y es que, cuando se revisa con cuidado, es posible notar que la comparecencia también deja un sabor semiamargo y preocupante.

Empecemos reconociendo que si bien los miembros del comité del Senado demostraron que entienden que la IA implica riesgos inminentes y que intuyen las vías por dónde pueden materializarse, también es cierto que sus preguntas distaron mucho de ser sofisticadas y no contaron con un respaldo técnico destacable.

Es bien sabido que la operación de la IA es impresionantemente compleja. Incluso las personas expertas reconocen que existen “cajas negras” en el funcionamiento de esa tecnología; esto es, que hay aspectos y resultados que no entienden del todo. Las preguntas tan suaves y amables a Sam Altman podrían deberse, al menos en parte, a la falta de recursos del Senado cuando se trata de abordar esta complejidad técnica con la profundidad que demanda.

Dos cosas son ciertas. En materia de conocimiento, la relación entre empresas tecnológicas y el Congreso estadounidense sigue siendo profundamente asimétrica. Y esta asimetría no es menor cuando se considera que el conocimiento relevante no está en las manos del vigilante, sino en las manos que tendrían que ser vigiladas.

Otra lectura negativa de esta comparecencia pasa por notar que el abierto llamado del CEO del OpenAI a regular la IA no significa, automáticamente, que ese ejecutivo o esa empresa verdaderamente quieran ser regulados ni que llegarán a serlo a corto o a largo plazo.

En primer lugar, incluso si tomamos al costo las palabras de Sam Altman, existen otras empresas que podrían ser más escépticas y resistentes a la regulación que su representada. A ello hay que agregar que en el pasado grandes compañías tecnológicas, como Facebook, han buscado lavarse la cara abogando abiertamente por regulación para luego, tras bambalinas, negociar con legisladoras y legisladores buscando tumbarla.

Esto no es todo. Aun suponiendo que Open AI entiende los riesgos de su tecnología y que está verdaderamente preocupada, esto claramente no ha sido ni será suficiente para desacelerar sus ímpetus expansionistas un ápice.

Es un hecho bien documentado que la carrera pública por el mercado masivo de la IA fue iniciada por esta empresa. Por ejemplo, Google había frenado el lanzamiento de varios de sus productos basados en esta tecnología, al menos en parte, por considerar que era riesgoso liberarlos al público sin contar con suficientes pruebas o controles capaces de limitarlos. Todo cambió una vez que Open AI “soltó” a ChatGPT en el mercado. Apenas hace unos días, Google anunció la integración de su IA a varios de sus productos. Microsoft respondió pronto con la misma moneda. Es fácil ver que esta carrera tenderá a acelerarse.

Esta feroz competencia indica que aun si el Congreso de Estados Unidos empieza a discutir de inmediato cómo minimizar los riesgos de la IA y a formular iniciativas de ley relevantes, no parece que la velocidad de su reacción estará a la altura de aquello que encuentra preocupante. En todo caso, cada día que pasa sin un marco bien informado y diseñado cuenta y puede ser determinante.

La última señal negativa para considerar es que, aunque ya son pocas las personas en su sano juicio que piensan que el mejor enfoque para controlar a la IA pasa por apelar a su autorregulación, existe una pregunta abierta sobre el tipo de regulación o de instituciones que se necesitan para controlarla.

El problema es que, dada la justificada preocupación que ha generado la IA, las iniciativas o propuestas, incluyendo las de la ONU o la OCDE, empiezan a conformar una cacofonía difícil de aterrizar en algo concreto. Como suele ocurrir en estos casos, probablemente el mejor modelo con que contamos es el estricto marco desarrollado por la Unión Europea. Una ventaja adicional es que la adopción o copia de este modelo podría ser relativamente rápida. Pero está por verse si Estados Unidos, con su enfoque históricamente laxo, o países como China o Rusia, con sus enfoques autoritarios, estarían dispuestos a abrazar medidas semejantes.

Con estas señales sobre la mesa, es momento de hacer un corte de caja. Hemos visto que la comparecencia del CEO de Open AI y otras personas en el Senado Estadounidense tiene aspectos positivos dignos de ser considerados. Las Senadoras y los Senadores parecen haber optado por un enfoque proactivo y supieron hacer preguntas relevantes. También es cierto que todas las partes se mostraron abiertas: el Senado, con su disposición a entender y a actuar de acuerdo con lo que recomienden personas expertas, y Open AI, al pedir abiertamente ser regulada.

Pero también vimos que esta comparecencia deja un sabor semiamargo. En términos de conocimiento, la relación entre quienes hacen leyes y aquellas personas o empresas que buscan controlar sigue siendo profundamente asimétrica. Sabemos que las grandes empresas tecnológicas suelen pedir regulación en público para luego combatirla en privado. Y no existe todavía consenso, ni en Estados Unidos ni a nivel global, sobre cómo contener los riesgos de una tecnología que avanza a pasos acelerados.