Queremos más inteligencia, no cerebros más grandes
“Inteligencia Artificial” (IA) es un término paraguas. Adentro hay muchísimas técnicas estadísticas y computacionales para hacer distintos tipos de trabajos o predicciones. “¿Esta radiografía es la de alguien que tiene cáncer?”, “¿Qué me conviene hacer en este partido de ajedrez?” son el tipo de preguntas que puede responder.
Haciendo control+find en varios libros técnicos que tengo en PDF, no encuentro nunca el término “Artificial Intelligence” ni AI. No me sorprende. IA es un nombre histórico, acuñado por algún escritor de ciencia ficción. No sabría decir si «The Mind Machine» de Michael Williams en 1919 (¡antes de que existieran las computadoras!) fue el primero, pero seguro fue antes de que se lo tratara desde la comunidad científica. DeepBlue de IBM fue el primer gran hito de éxito en IA: una máquina con una lista de reglas cuidadosamente diseñadas por científicos y ajedrecistas que logró ganarle a Kasparov, un campeón mundial de ajedrez.
Los libros técnicos de hoy sí contienen los términos “Machine Learning” o “Deep Learning”. Es más, casi todos llevan alguno de esos dos términos en su título. Machine Learning (ML) tiene la virtud de “aprender por su cuenta”. Su estructura está vagamente inspirada en las neuronas humanas y, dada una gran cantidad de datos y mucho tiempo de cómputo, establece sus propias reglas. Esto difiere de DeepBlue de una manera crucial: no necesitás contratar ajedrecistas, sólo ingenieros y datos (o sea, muchos partidos ya jugados). Deep Learning, sin ahondar mucho más, es un tipo de Machine Learning. Si ML está basada en unas neuronas que requieren muchos datos y mucho poder de cómputo, DL son muchísimas más neuronas (que pueden establecer reglas más complejas), que requieren infinidad de datos, y de las más grandes supercomputadoras. Por su naturaleza, la cuna de estas técnicas suelen estar en universidades, pero los únicos que la pueden aplicar a gran escala son las grandes empresas que tienen un montón de datos, un montón de poder de cómputo, o ambas cosas.
Casi todos los avances en “IA” que vemos en noticias se deben a computadoras más poderosas que usan cada vez más información. No es ninguna casualidad que los grandes avances suelen venir de empresas como Google, Facebook, Microsoft o Amazon. Ellos tienen los fierros. Deep Learning es algo que yo puedo hacer desde mi laptop, usando el procesador interno. Funciona bien, pero el método funciona mejor cuanto más datos y más poder de cómputo tiene. Para dar una referencia a la escala, entrenar un modelo de dimensiones industriales tiene un costo de decenas de miles de dólares sólo en la electricidad que consume el proceso. Los modelos producidos por grandes empresas suelen superar a los de grandes universidades, no porque sean “más inteligentes”, sino simplemente porque ponen “un cerebro más grande”. A la vez, cuanto más grandes se vuelven estos cerebros metálicos, más huella de carbono dejan. La electricidad no es gratis.
Destaco dos avances recientes que fueron noticia: Google usando una Inteligencia Artificial que detecta el cáncer de mama mejor que un radiólogo experto; y OpenAI (empresa sin fines de lucro fundada por Elon Musk) que desarrolló una mano robot que aprendió a resolver el cubo Rubik.
No hay duda: atacar los problemas con cerebros “grandes” funciona. Pero también hay muchas razones para observar avances más cualitativos que estos. En primer lugar, que algo tan poderoso como la inteligencia artificial quede sólo en poder de las grandes empresas puede darnos -con mucha razón- miedo. La información es el nuevo petróleo y estas empresas podrían ser los nuevos Standard Oil.
OpenAI era una empresa sin fines de lucro, en la que Microsoft recientemente invirtió mil millones de dólares. A partir de esta pseudo-adquisición, la presión por mostrar avances fue muy grande. En este caso, exageró la noticia bastante adrede. Antes dije que hicieron una máquina que podía resolver el cubo Rubik. En realidad, la mano recibía una orden específica de qué mover en cada paso. El avance estuvo sólo en el hecho de poder manipular el objeto físico. Es un paso importante, pero mucho más modesto cuando vemos que, aún con la información de qué hacer exactamente en cada paso, al robot se le caía igual el cubo de la mano aproximadamente la mitad de las veces.
El paper de las mamografías de Google levantó mucha controversia. Cuentan sus resultados: pueden predecir si una mamografía vieja es de una paciente con cáncer mejor que los expertos. El problema es que no comparten ni su base de datos completa ni el código que usaron. Es propiedad de Google. El estudio es efectivamente irreproducible, lo cual lo saca un poco del circuito científico.
A la vez, hay un problema que muchos biotecnólogos y médicos señalaron. Y es que hay 3 tipos de cánceres: 1) cáncer benigno que no dañará a la paciente en su vida; 2) cáncer maligno que, de descubrirlo en una fase temprana, se salvaría una vida; o 3) cáncer tan maligno que, encontrarlo o no, no hace diferencia para la vida de la paciente. Siendo que Google no tiene manera de distinguir entre estas tres categorías (necesitaría un estudio controlado de 15 años para eso, como es estándar en la industria), no hay forma de saber si esta tecnología puede salvar la vida de la gente o solamente ponerle la etiqueta de “cáncer” a más personas saludables.
El equipo responsable de este estudio es increíble y trajo gigantescos avances en el área, que son difíciles de exagerar. En una conferencia, Demis Hassabis (fundador y CEO de Google Deepmind) declara el propósito de su empresa: “1) Resolver la inteligencia. 2) Usarla para resolver todo lo demás”. Google es una empresa que hace inteligencia artificial y la aplica en distintas áreas. Ingresar a la industria de la salud y la biotecnología tiene mucho sentido económico para Google, pero este tipo de trabajos están más destinados a brindar publicidad que a contribuir a la ciencia.
Aparte de construir cerebros cada vez más grandes y cada vez más optimizados, tiene sentido prestar atención a avances más cualitativos provenientes de la academia que, aunque sean menos publicitados, pueden llegar a ser de gran importancia. Si uno volviese al tiempo de la derrota de Kasparov en el 97’, pensaría que IBM y la tecnología de DeepBlue sería la tecnología más relevante a futuro. Estaríamos equivocados. Mejor ir a Toronto, donde Geoffrey Hinton ya venía trabajando en DL desde el 86’ o a visitar a Yan Le Cun, en MIT a ver en qué cosas “poco prácticas” estaban trabajando.
Posiblemente lo que más nos termine impactando a futuro sea algo que, aunque sea muy ingenioso, sea poco práctico. Poco práctico hoy. Algo que no salga en ninguna noticia y no esté juntando millones en inversiones.
————————————–
Referencias:
Google Research: Looking Back at 2019, and Forward to 2020 and Beyond
Vinay Prasad on Twitter: «The Google AI mammogram paper is FLAWED»
I spent $1 billion and all I got was a Rubik’s cube
Are We Overly Infatuated with Deep Learning?
How artificial intelligence is making healthcare more human
Is AI Riding a One-Trick Pony?
What’s the Difference Between Artificial Intelligence, Machine Learning and Deep Learning?