Hoy hablaremos sobre la IA y el balance que hay entre todos los beneficios que trae y el riesgo muy real de que acabe eliminando a la humanidad como en Terminator.
En este deep dive, discutiremos un paper que usa un modelo matemático para discutir la forma en la que debemos evaluar el problema.
Es una maña de la economía poner nuestras discusiones en modelos de este tipo. Pero hacer este tipo de planteamientos tiene ventajas. La más importante es que todos los argumentos siguen una lógica matemática. Se supone que si alguien se encuentra con una función de utilidad como la que viene en el paper:
$$ U = N \int_0^\infty e^{-\rho t} u(c) dt = \frac{1}{\rho} N u(c) $$
debe ser capaz de entender la lógica que hay detrás de descontar la utilidad en el tiempo usando $e^{-\rho t}$, aunque no haya leído todo el bagaje de literatura neoclásica.
Pero al final del día es un argumento.
En otras palabras, la mayor parte de los argumentos que aquí se hacen no requieren en sí de los modelos matemáticos, pero el autor los hace de cualquier manera para demostrar la consistencia dentro del mapa de argumentos de la economía neoclásica.
El problema de la alineación
Volviendo al problema, el problema que se presenta con la inteligencia artificial (IA) es que tal vez las máquinas no tienen objetivos alineados con los nuestros.
El problema es algo que se ha discutido mucho en la academia, no nada más en la ciencia ficción. La idea es que nos podemos equivocar al programar una inteligencia artificial, con consecuencias nefastas. Por ejemplo, si le pedimos a una máquina que haga la mayor cantidad de clips como le sea posible, no es mucho problema si no es una máquina que aprende de su entorno. Pero una máquina con “inteligencia”, siempre está buscando nuevas soluciones “creativas” para lograr su resultado. En un caso muy extremo, nos robaría todo el hierro de la sangre para hacer más y más clips hasta que se acabe el mundo.
Algo parecido a Ultron en la película de los avengers, en la que determina que para lograr la paz, tendría que destruir a la humanidad (algo así es lo que me sale en los modelos microeconómicos cuando no hago el ajuste de las variables correctamente).
El problema es que, entre más usamos la IA, más peligrosa se vuelve
Hay muchas cosas positivas qué decir de la IA: nos está ayudando a ser más productivos y más innovadores.
Hay modelos de IA que nos están ayudando a encontrar las estructuras moleculares de antibióticos. Otros que están resolviendo problemas matemáticos que llevaban siglos sin poderse resolver y todos sabemos que cuando se resuelve un problema matemático, se vienen muchas innovaciones (estoy pensando en las criptomonedas).
Pero así como implica crecimiento y ganancias a corto y largo plazo, hay un peligro inminente de que la IA se vuelva contra nosotros y nos elimine de una (si no crees que sea posible, nada más acuérdate de lo que pasó cuando los archivos de Excel de los bancos en Estados Unidos dejaron de cuadrar en 2008).
En palabras del autor del paper (la traducción es mía):
La IA podría elevar los estándares de vida más que lo ha hecho la electricidad o el internet. Pero los riesgos que entraña exceden a los de las armas nucleares.
Tipo: “¿Quieres jugar ruleta rusa donde cada vez que no te caiga una bala te deposito un millón de dólares en la cuenta del banco?”
Los escenarios dependen de qué tanto es el riesgo y cuál es la ganancia
En la ruleta rusa, al revólver le caben 6 balas (creo).
Pero si le cupieran 1000 balas, tal vez más personas estarían dispuestas a jugársela. El paper lo que hace es básicamente jugar con esos parámetros. ¿Qué pasa si le aumentamos el número de balas que le caben a la pistola? ¿Cómo cambia nuestro comportamiento si le ponemos más valor al largo plazo?
Lo interesante es que si pensamos en los beneficios de la IA, no sólo son cosas que se reflejan en nuevos iPhones con un Siri que si sepa recibir órdenes interesantes. También la IA nos puede ayudar a encontrar innovaciones que curen enfermedades degenerativas y que extiendan la esperanza de vida de las personas.
En un modelo matemático, las extensiones en la esperanza de vida cancela la probabilidad de aniquilación.
Hay un punto en el que el modelo se siente un poco ridículo al respecto. Porque de acuerdo al modelo, si llegas a aumentar mucho la esperanza de vida de las personas, estas serían capaces de ignorar los riesgos de la IA de aniquilación dentro de 40 años. Es algo que tiene sentido en el modelo matemático y no lo podemos discutir desde ese punto de vista, pero sí me daría risa tener que presentar ese resultado en un auditorio.