Big data, la última revolucion tecnologica?

(va disculpa adelantada por la omision de tildes, enies y otros caracteres)

A pedido de alguna gente y para que lo que pasa en Cafe Cientifico no quede solo en el Cafe Cientifico, sale este post con una sintesis rapida, incompleta y a mano alzada.

Nora se encargo de guiarnos magistralmente por varios de los temas claves de big data, ciencia de datos, e inteligencia artificial.

Comenzo preguntandonos sobre cuan grandes son los grandes datos. Charles comento que la cantidad de datos generada cotidianamente supera toda la produccion literaria humana de los ultimos siglos. Empresas como Facebook o Google obtienen diariamente cantidades industriales de nuestros datos, con cada uno de nuestros clicks. Trayendolo mas a estas Pampas, ejemplifique con las historias clinicas electronicas. Varios centros de salud, publicos y privados, tienen en Argentina registros electronicos. En varios casos, desde que llegas a la ventanilla del centro hasta el ultimo detalle de tu recorrido queda registrado electronicamente. Son muuuuuuchos datos.

Nora se pregunto donde se guardan tantos datos. Asi llego a mesa la frase que circula en los pasillos de Fundacion Sadosky “la nube es un galpon”. Los datos se guardan en galpones llenos de computadoras y discos rigidos. Charles dio detalles de la infraestructura donde se guardan los datos con redundancia (por si algun disco falla), con robots para cambiar discos fallados, refrigeracion y sistemas electricos robustos. Esto es cierto para grandes empresas internacionales y para quienes guardan registros medicos electronicos en nuestras ciudades.

Nora continuo: pero quien es el duenio de esos datos? Charles explico que el valor de las companias mas ricas (por ej, Google, Facebook, Amazon) reside en la cantidad de datos que nosotros les damos todos los dias a cambio del uso de sus plataformas y aplicaciones. Tambien nos conto sobre Wibson, una empresa con capital intelectual argentino, que nos propone monetizar nuestros datos y decidir a quien darselos. Se hace a traves de una app sencilla y mediante el uso de criptomonedas.

Obviamente Nora no eludio el tema de como se relacionan los terminos big data e inteligencia artificial. Conte que el acuerdo entre expertos esta peliagudo aun. Di mi vision de que son distintas modas sobre el uso de palabras que van teniendo distintos picos de uso (hypes). “Big Data” en si mismo es muy difuso porque la definicion de grande aumenta con la capacidad de almacenamiento y procesamiento. Cuando se incorporo el publico a la conversacion, el Academico Victor Yohai nos recordo que los datos pueden ser grandes tanto en numero de unidades de analisis como en la cantidad de caracteristicas (o variables) que se colectan de cada una de las unidades. Conte que dentro de las modas, Big Data viene ya en baja - al fin y al cabo, los datos no son otra cosa que un insumo. Modas posteriores son “Data Science” y, mas recientemente, “Inteligencia Artificial”. El paso breve por “Machine Learning” fue obligado. Desde el publico, el Academico Victor Ramos, nos recordo que hace un tiempo tambien se hablaba de Datamining - un termino afin con la geologia. Hubo cierto acuerdo en que los datos son parte del asunto, pero lo central esta en como se analizan.

Cuando llegamos a inteligencia artificial, Alpha Go, el programa capaz de ganarle a los campeones humanos de go, se colo en la conversacion. Lo sorprendente es que les gana luego de entrenar unas pocas horas y arrancando desde las reglas del go. Como esta “inteligencia” hay muchas mas (por ej, las que predicen mejor que nadie como se pliegan las proteinas o ganan al poker). De todas formas, dije que estas inteligencias son “bobas”. Muchas cosas que la ciencia ficcion sugiere y que nos imaginamos cuando hablamos de inteligencia artificial estan lejos de ser una realidad (por ej, la interaccion con robots como si fueran pares de los humanos).

En este punto, llego el momento de citar tupidamente el contenido de este post de Michael Jordan y tambien de contar que estas inteligencias, por el momento, como mucho nos aumentan. Comenzamos a destacar que tienen vulnerabilidades importantes. Entre otros, puse el ejemplo de la identificacion automatica de rostros y la forma de hackearlo.

Contamos que algunos de estos algoritmos (algunos llamados redes neuronales profundas o deep learning) funcionan mas empirica que teoricamente. La teoria detras de algunas arquitecturas esta aun en desarrollo. Sin la teoria de fondo, hay quienes sospechan que estamos colectando los frutos mas maduros de esta tecnologia y seguimos lejos de llegar a una inteligencia artificial general (la de las pelis de ciencia ficcion).

Con el ejemplo reciente de OpenAI que no es tan abierta con sus resultados como habia prometido porque sus resultados podrian usarse para el mal, llegamos a las noticias falsas (fake news). Tambien a la posibilidad real de poner en riesgo la democracia por el uso irresponsable de los datos y de la inteligencia artificial. Aunque es “boba” ya puede hacer mucho danio. Nora menciono el documento firmado por Stephen Hawkins y otros advirtiendo de estos peligros. Entonces comenzamos a charlar sobre la necesidad de regular esta tecnologia, con el mismo espiritu con que se regula un medicamento para que sea seguro.

Tambien se reconocio la dificil tarea que enfrentan los funcionarios publicos para la adopcion de estas tecnologias junto a la necesidad de respaldarse en los expertos del sistema cientifico y tecnologico nacional. Eso es esencial para evitar que la poblacion sea victima de intereses externos. Recordamos que el interes de muchas companias no es el bienestar general, sino subir su valor en Wall Street como plantea esta nota. Desde ahi llegamos a que no es buena idea delegar (por completo y unicamente) en tecnologos no representativos de la poblacion mundial decisiones sobre inteligencia artificial. Plataformas como Facebook o Twitter nunca imaginaron que iban a tener una influencia tan patente sobre la democracia.

Junto a aportes del publico fuimos cerrando el Cafe. De la mano de Victor Ramos concluimos que los problemas actuales son una amplificacion de problemas previos que la humanidad conoce y estudia desde hace tiempo. Tambien que somos capaces de adoptar acuerdos internacionales que regulen la inteligencia artificial, con el espiritu de documentos como la declaracion de Helsinki y otros. Es indispensable incluir en la toma de decisiones sobre el presente de la inteligencia artificial especialistas en sociologia, psicologia, filosofia y etica, entre muchas otras disciplinas. Como nos conto Victor Yohai, la matematica tiene tambien un papel esencial en todo esto porque subyace todos los algoritmos. Se convergio a que la alfabetizacion temprana (“desde el jardin de infantes”) en estadistica y uso de datos es tan clave como que la matematica se ensenie de manera tal que deje de ser el cuco educacional de la mayoria de las personas.

Quedaron cantidad de cuestiones interesantes en el tintero y esta es solo una sintesis rapida e incompleta de lo que sucedio. Hacia el final y para quienes quisieran seguir con este tema, sugeri “Big data: breve manual para conocer la ciencia de datos que ya invadio nuestras vidas”, el ultimo libro del gran Walter Sosa Escudero. Recien salido del horno.

Estuvo tan bueno, que podria haberme quedado hasta el dia siguiente conversando y reflexionando entre todos. Fue una experiencia enriquecedora.

Va un gran agradecimiento a Nora, Charles y a Daniel Krupa, el organizador de todos los detalles desde la Academia Nacional de Ciencias Exactas, Fisicas y Naturales.

Avatar
Laura Acion
Adjunct Researcher