Autos que vuelan, ancianos que en realidad no lo son, seres de otro planeta, superhéroes, robots, transformaciones fáciles; un universo de cosas imposibles que se cuelan en nuestra vida diaria a través de películas y series que no solo nos sumergen en un mundo paralelo, sino que además nos despiertan dos interrogantes fundamentales:

  • ¿cómo se logran estos efectos?
  • ¿son posibles en la vida real?

Intel nos invitó a indagar en estas dos preguntas a través de algunas de las películas y series más icónicas del último tiempo, a la luz de las diferentes y disruptivas tecnologías que la compañía ha desarrollado e implementado.

Entrenamiento de IA 

Minority Report*

Año: 2002

(Productoras: 20th Century Fox*- DreamWorks Pictures*- Amblin Entertainment*- Blue Tulip Productions*)

En el film se puede evidenciar cómo se comportan los algoritmos de inteligencia artificial (AI), a partir de la posibilidad de predecir el futuro y dar un aviso para efectuar las acciones pertinentes dentro del comando.

Un ejemplo cotidiano es la predicción de Churn, que permite anticipar cuándo un cliente está por abandonar una empresa, identificarlo y avisar a marketing para que tome una acción. Sin embargo, hay una diferencia muy importante con los personajes del film, dado que los algoritmos de AI requieren un conocimiento previo para brindar la información, mientras que en Minority Report*, las tres personas que dan aviso lo hacen porque poseen un don. 

Intel colabora con el entrenamiento de los algoritmos IA para que sean capaces de identificar patrones tales como desde Hardware Intel Xeon o las GPUs para HPC (Ponte Vecchio) y tools de SW (Math Kernel, entre otros) para los desarrolladores, además de hacerlo de manera ágil y rápida. Gracias a los avances de estos algoritmos, solo requiere de buena información previa para que sean cada vez más precisos en su capacidad de comprender el comportamiento, a través de la información que reciben.

Marketing Interactivo 

Back to the Future*

Año: 1989

(Productora: Universal Pictures* Amblin Entertainment*) 

Este clásico de 1989 refleja cómo se creía sería el futuro y de qué manera se interactuaría con el entorno y los demás. En la escena en la que un tiburón 3D sale de un anuncio publicitario cuando el protagonista se queda observándolo, es el reflejo de lo que actualmente se denomina marketing interactivo.

Hoy podemos ver adaptación del contenido publicitario en los sitios web de compras, por ejemplo, aunque no todos cuentan con la personalización de las ofertas. En el caso de los comerciales en vía pública, lo que se busca es incorporar también el concepto de customer experience, es decir, que el cliente o el potencial perciba que el contenido es personalizado para él. Está probado en la industria que esto no solo mejora la fidelidad de los clientes, sino que también puede generar muchas más ventas.

Para lograr esta personalización, se pueden utilizar una combinación de varias tecnologías, tales como el reconocimiento facial.

La evolución de estos tipos de algoritmos, junto al importante avance del HW de Intel, hacen que se ejecuten en el borde (edge) sin inconvenientes. En el edge se aloja la aplicación y también toma otro tipo de acciones basadas en las reacciones. Además, la información generada sirve de entrada para múltiples sistemas y desarrolla una demanda mucho mayor de tecnologías de almacenamiento donde la disponibilidad y la accesibilidad son ejes determinantes.

Para hacerlo posible, Intel cuenta con varias alternativas como: las Mini PCs NUCs, Intel Optane para almacenamiento y la tecnología SGX presente en los procesadores Intel Xeon. Esta última, ayuda a la seguridad de las aplicaciones, habilitando una zona segura dentro del procesador donde se ejecutan determinadas partes del código, algo que cuando estamos hablando de entornos donde las cargas están distribuidas entre el cloud y el on prem es muy importante.

Más de 30 años después del estreno de Back to the future*, vemos algo implementado de este tipo de algoritmo, pero muchas veces el desafío es el contexto y no la tecnología en sí. Las redes neuronales- que son lo que permiten que se pueden reconocer fácilmente estos rasgos- están desarrolladas desde la década de los ochenta, pero los algoritmos deben ser entrenados y como en dicha época la cantidad de imágenes disponibles era limitada, la implementación era utópica y se percibía como ficción.

Con el surgimiento de otras tecnologías como Facebook o Google, la digitalización de las imágenes, la capacidad de almacenamiento y de procesamiento crecieron de manera exponencial, permitiendo actualmente sacar provecho de las redes neuronales y los datos que se generan segundo a segundo.

Reinforcement learning 

Matrix*

Año: 1999

(Productora: Warner Bros*- Village Roadshow Pictures*- Groucho II Film Partnership Silver Pictures*) 

El film se centra en un mundo de dominación de la AI sobre los humanos en una realidad paralela diseñada para mantener las mentes de los humanos allí, mientras yacen en estado vegetativo alimentando con su energía a la poderosa red.  La AI es lo que le da la vida a la robótica, siendo esto lo que permite que un robot se comporte como un humano.

El Reinforcement Learning es un algoritmo capaz de aprender sin que se lo haya entrenado previamente, y lo hace desde su propia experiencia a través del establecimiento de premios y castigos.

Intel aporta a la comunidad open a través de RF Coach, utilizando su plataforma para que el entrenamiento sea mucho más eficiente. La tecnología de Intel es utilizada en background para que ese algoritmo aprenda y pueda ser una realidad.

Hoy la AI no posee consciencia, pero podría aprender con base a su experiencia partiendo de eventos previos. Se necesita información para lograr hacer un sistema de AI y proyectando a futuro, esta inteligencia artificial puede asistir al hombre en diferentes tareas y/o en la toma de decisiones, como lo hace actualmente en los autos autónomos. Lo cierto es que la capacidad de adaptarse a nuevas circunstancias sigue siendo, por el momento, exclusivamente humana. Para dar a las máquinas nuestras habilidades, al parecer, tenemos que darles nuestras historias.

AI y la transformación 

The Irishman*

Año: 2019

(Productora: TriBeCa Productions*- Sikelia Productions*- Winkler Films*) 

El film protagonizado por Robert De Niro, muestra la evolución en la edad del actor y estos cambios en su apariencia fueron realizados con AI: un trabajo de simulación y proyección.  

La AI permite que las películas creen gráficos increíblemente detallados y realistas, a la vez que ahorra tiempo en las iteraciones creativas que trabajan juntas para elevar el arte de la creación de corto y largometrajes y mejorar la experiencia del público.

¿Y cómo se logró transformar su apariencia? Para envejecer el rostro del actor, se utilizó una tecnología muy similar al Real Sense[1] de Intel. La grabación se realizó con 3 cámaras, de las cuales 2 eran de profundidad para realizar una imagen en 3D del rostro del actor. Ahora bien, la simulación de De Niro implicó capturar – en un lapso de dos años- imágenes de él de películas anteriores. Esto sirvió para entrenar el algoritmo de simulación y posteriormente proyectar.

Dado que se empleó CGI, el cual es muy utilizado en el mundo de las películas ya que son imágenes realizadas por computadora, el avance permitió que la captura en 3D sea con las cámaras en lugar de obtener una imagen en 3D literal de los actores.

El CGI requiere tiempos de renderización en los procesadores Intel Core i9 o Core i7 que son utilizados en gaming o por los creadores de contenido. También puede utilizarse la nueva placa discreta GPU de Intel, que además de la renderización también está ejecutando el algoritmo de AI que envejece o rejuvenece los personajes.

Megalodón*

Año: 2018

(Productora: The Asylum*)

Esta súper producción contó con tecnología de Intel, en la que el tiburón fue generado íntegramente por AI en 10.000 núcleos y utilizando 2.500 procesadores Intel Xeon.

Recrear un tiburón prehistórico de 75 pies de largo en el agua -para la pantalla grande -no es una tarea fácil. Además de dar vida al Megalodon, Scanline y Ziva, también era necesario asegurarse de que sus movimientos, a través del océano o un fondo fluido, fueran realistas. Fue posible crear a Megalodon moviéndose a través del agua, a través del procesamiento de una serie de simulaciones físicas y ejecutando el tiburón simulado a partir de los movimientos y poses necesarios en las tomas de la película.

Una de las grandes ventajas de utilizar procesadores escalables Intel Xeon, fue la generación de datos de entrenamiento asombrosos. Cuando se entrena un proceso de machine learning, es necesario saber cómo se comportará algo para anticiparse a sí mismo o extrapolar cómo se espera que se comporte, en este caso, el movimiento del tiburón en sí. La tecnología Intel Xeon ayudó a los creadores de la película a hacerlo de manera rápida, eficiente y lo más realista posible.

Los procesadores Intel Xeon impulsaron el software de generación de caracteres de Ziva y ayudaron a acelerar el motor de física de Ziva; un algoritmo de inteligencia artificial que automatiza el movimiento de las criaturas generadas, incluido el Megalodón de “The Meg”. Además, Scanline utilizó potentes procesadores Intel Xeon para renderizar las tomas de la película, ahorrando así tiempo que se empleó en crear más y mejores tomas.

Lenguaje natural (NLP) 

Black Mirror*

Año: 2017-2019

Capítulo: “Rachel, Jack and Ashley Too”

(Productora: *Netflix)

En este capítulo de Black Mirror, se aborda la temática GPT/BERT/Transformers, Lenguaje Natural (NLP), la cual permite que un algoritmo sea capaz de emular la manera de escribir de un ser humano. La trama revela que el robot de Ashley es capaz de responder como si fuese el personaje, una vez que se libera el bloqueo que poseía.

Si bien es un comportamiento similar al de un bot, hoy en día es posible la emulación de una persona, pero no su razonamiento; debido a que generalmente se programa un bot y de una frase se va a obtener lo que se llama intento, que es sobre lo que habla la frase y ahí es donde estos algoritmos pueden ser útiles. Ahora bien, una vez identificado eso se programa cuáles serían los próximos pasos como si fuera un árbol de decisión.

Hasta el 2018 era muy difícil poder obtener un sistema de lenguaje natural (chat bots o traductores en tiempo real) con precisión. Con el surgimiento de los transformers (BERT) comienza a ser posible, dado que los algoritmos son capaces de comprender el lenguaje de una manera revolucionaria. Es en este campo donde los próximos años se evidencien grandes avances como: análisis de sentimientos en la atención al cliente, corrección ortográfica y gramatical, traducciones en tiempo real; entre otros casos que gracias a este avance pueden ser implementados muy fácilmente.

Intel ayuda a la implementación de estos algoritmos con herramientas como OpenVINO, siendo capaz de optimizar ese algoritmo para que requiera la menor cantidad de procesamiento al momento de ejecutarse. Asimismo, con los últimos avances en hardware sobre cómo se ejecutan esas instrucciones, DL Boost y AVX 512 son algoritmos de red neuronal que permiten que las instrucciones se hagan en menos pasos, lo cual es un factor clave a la hora de llevar a la práctica los mismos.