Translate - Traductor

desde el Conurbano

desde el Conurbano
Periódico Mensual

Ahuyentamiento Palomas Murciélagos

Ahuyentamiento Palomas Murciélagos
Palomas de Plaza de Mayo pasta ahuyentadora

Gafas

Gafas
Optica Ortopedia Gafas

Dr. Helou

Dr. Helou

Mejor Postura

Mejor Postura
Almohadones Terapéuticos + Relax

COTIZACION DOLAR - EURO

Páginas vistas en total

han estado...

Flag Counter

lunes, 10 de agosto de 2015

El hombre que enseña a las máquinas a entender el lenguaje

Yann LeCun utiliza una vieja idea de la inteligencia artificial para crear software que comprenda las palabras
POR TOM SIMONITE - TRADUCIDO POR LÍA MOYA

La primera vez que Yann LeCun revolucionó la inteligencia artificial (IA), resultó ser un falso amanecer. Era el año 1995 y el joven francés llevaba casi una década dedicado a lo que muchos informáticos consideraban una mala idea: la de que imitar burdamente determinadas características del cerebro era la mejor forma de lograr máquinas inteligentes. Pero LeCun acababa de demostrar que su enfoque podía producir algosorprendentemente inteligente y útil. Mientras trabajaba en Bell Labs, creó un software que simulaba aproximadamente el funcionamiento de las neuronas y que aprendió a leer un texto escrito a mano después de ver muchos ejemplos. La empresa matriz de Bell Labs, AT&T, lo usó para vender las primeras máquinas capaces de leer lo escrito a mano en cheques y formularios. Para LeCun y unos cuantos creyentes más en las redes neuronales artificiales, aquello parecía señalar el principio de una era en la que las máquinas podrían aprender muchas más habilidades que hasta entonces habían sido dominio exclusivo de los humanos. Pero no fue así.

"Todo este proyecto desapareció el mismo día que obtuvo su mayor éxito", explica LeCun. El mismo día que celebró el lanzamiento de máquinas bancarias capaces de leer miles de cheques a la hora, AT&T anunció que se dividía en tres empresas dedicadas a distintos mercados de la comunicación y la computación. LeCun se convirtió en jefe de investigación de un AT&T más reducido y recibió instrucciones de trabajar en otras cosas. En 2002 dejó Bell Labs para convertirse en profesor de la Universidad de Nueva York (NYU por sus siglas en inglés, EEUU). Mientras, otros investigadores descubrieron que no podían aplicar el avance de LeCun a otros problemas de computación. Este enfoque inspirado en el cerebro para la IA volvía a tener un interés marginal.

LeCun, que ahora cuenta con 55 años, sonríe generosamente y tiene un largo flequillo oscuro salpicado de canas, nunca dejó de investigar en interés marginal. Y, sorprendentemente, el resto del mundo ha vuelto a su enfoque. Las ideas que él y unos cuantos más cultivaron a lo largo de casi dos décadas de apatía, e incluso rechazo, han producido resultados sorprendentes en áreas como el reconocimiento de caras y del lenguaje en los últimos años . El aprendizaje profundo, que es como se conoce a este campo ahora, se ha convertido en un nuevo campo de batalla entre Google y otras de las principales empresas de tecnología que están dándose prisa para usarlo en servicios a los consumidores. 

Una de esas empresas es Facebook, que contrató a LeCun en diciembre de 2013 y lo puso a la cabeza de un nuevo grupo de investigación en IA, FAIR, que ahora mismo cuenta con 50 investigadores pero que está previsto que tenga 100. El laboratorio de LeCun es la primera inversión significativa de Facebook en investigación básica y podría ser clave en los intentos de la empresa por convertirse en algo más que un punto de reunión social virtual. Quizá llegue a cambiar nuestras expectativas sobre de qué son capaces las máquinas.

Facebook y otras empresas, entre ellas Google, IBM y Microsoft, se han movido rápido para entrar en este campo en los últimos años porque el aprendizaje profundo es muchomejor que anteriores técnicas de IA a la hora de conseguir que los ordenadores adquieran habilidades que suponen un desafío para las máquinas, por ejemplocomprender las fotos. Las técnicas más establecidas exigían que expertos humanos programasen laboriosamente determinadas habilidades, por ejemplo cómo detectar líneas y esquinas en las imágenes. El software de aprendizaje profundo aprende a buscarle un sentido a los datos solo, sin necesidad de dicha programación. Ya existen algunos sistemas capaces de reconocer imágenes o caras con la misma precisión que un humano.

Ahora LeCun se ha puesto como objetivo algo mucho más potente. Quiere producir software con las habilidades de lenguaje y el sentido común necesarios para mantener una conversación básica. En vez de tener que comunicarnos con las máquinas pulsando botones o introduciendo términos de búsqueda cuidadosamente escogidos, podríamos decirles lo que queremos como si estuviésemos hablando con otra persona. "Nuestra relación con el mundo digital cambiará completamente gracias a agentes inteligentes con los que podrás interactuar", predice. Cree que el aprendizaje profundo puede producir software que comprenda nuestras frases y sea capaz de responder con las respuestas adecuadas, aclarando las preguntas, o haciendo sugerencias propias.

La creación de agentes capaces de responder a preguntas sobre hechos o reservar mesas en un restaurante es una aplicación evidente, aunque no exactamente rompedora. También es fácil de imaginar que este tipo de software podría dar lugar a personajes de videojuegos más estimulantes o mejorar el aprendizaje en línea. LeCun explica, más provocadoramente, que los sistemas que comprenden el lenguaje corriente podrían llegar a conocernos lo suficientemente bien como para saber qué nos conviene. "Los sistemas como este deberían poder comprender no solo qué puede divertir a la gente sino también qué deberían ver independientemente de que lo vayan a disfrutar o no", afirma. 

Estas hazañas no se pueden lograr usando las técnicas que hay detrás de los motores de búsqueda, filtros de spam y ayudantes virtuales que intentan entendernos en la actualidad. Muchas veces ignoran el orden de las palabras y funcionan con trucos estadísticos como emparejar y contar palabras clave. Siri de Apple, por ejemplo, intenta encajar lo que dices en una pequeña cantidad de categorías que producen respuestas previamente escritas. "En realidad no entienden el texto", explica LeCun. "Es sorprendente que funcione incluso". Mientras, los sistemas que parecen haber dominado tareas complejasrelacionadas con el lenguaje, como Watson, el ganador de Jeopardy! de IBM, lo hacen especializándose muchísimo en un formato en concreto. "Como demostración resulta delicioso, pero no es un trabajo que se pueda traducir a cualquier otra situación", afirma.

En comparación, el software de aprendizaje profundo quizá sea capaz de entender el lenguaje más como lo hacen los humanos. Investigadores en Facebook, Google y otros sitios están desarrollando software que ha demostrado progresos hacia la comprensión de lo que significan las palabras. El equipo de LeCun tiene un sistema capaz de leer historias sencillas y de responder a preguntas al respecto, tirando de facultades como ladeducción lógica y una comprensión rudimentaria del paso del tiempo.

Sin embargo, como LeCun sabe muy bien de primera mano, la IA se caracteriza por un progreso a pequeños saltos que despiertan predicciones de grandes saltos adelante, pero que en última instancia cambian muy poca cosa. Crear un software capaz de manejar las deslumbrantes complejidades del lenguaje es un desafío mayor que entrenarlo para reconocer objetos en fotos. La utilidad del aprendizaje profundo para el reconocimiento del lenguaje y la detección de imágenes está fuera de toda duda, pero seguimos sin saber si podrá dominar el lenguaje y transformar nuestras vidas más radicalmente. Aún no sabemos seguro si el aprendizaje profundo es un pequeño salto que acabará convirtiéndose en algo mucho mayor.

Historia profunda
Las raíces del aprendizaje profundo son más hondas que en la época de LeCun en Bell Labs. En realidad lo que él y unos cuantos pioneros más de la técnica estaban haciendo era resucitar una idea sobre la IA muerta hacía tiempo.

Cuando se empezó a investigar en este campo, en la década de los 50, los biólogos empezaban a desarrollar teorías matemáticas sencillas sobre cómo emergen la inteligencia y el aprendizaje de señales que pasan entre neuronas en el cerebro. La idea central -que sigue estando vigente hoy en día- es que las relaciones entre las neuronas se fortalecen si esas células se comunican con frecuencia. El arrebato de actividad neuronal que se dispara ante una experiencia nueva, adapta las conexiones del cerebro para que este pueda comprenderla mejor la segunda vez que sucede.

En 1956 el psicólogo Frank Rosenblatt usó esas teorías para inventar una forma de hacer simulaciones sencillas de neuronas en software y hardware. El New York Times anunció su trabajo con el siguiente titular: Cerebro electrónico se enseña a sí mismo. El perceptron de Rosenblatt, que es como denominó a su diseño, podía aprender a clasificar imágenes sencillas en categorías, por ejemplo, triángulos y cuadrados. Rosenblatt ponía en práctica sus ideas en máquinas gigantes llenas de cables enredados, pero estas establecieron los principios básicos de las redes neuronales artificiales actuales.

Uno de los ordenadores que construyó tenía ocho neuronas simuladas, hechas de motores y diales conectados con 400 sensores de luz. Cada una de las neuronas recibía una parte de las señales de los sensores de luz, las combinaba y, dependiendo de lo que sumara, escupía un 1 o un 0. Juntos, esos dígitos resultaban la "descripción" del perceptron de lo que veía. En un principio los resultados eran una basura. Pero Rosenblatt usó un método denominado aprendizaje supervisado para entrenar a un perceptron y poder generar resultados que distinguían correctamente entre distintas formas. Mostraba una imagen al perceptron junto con la respuesta correcta. Entonces la máquina afinaba la atención prestada por cada neurona a las señales entrantes, cambiando el "peso" de cada señal para dar lugar a ajustes que produjesen la respuesta correcta. Después de muchos ejemplos, esos pequeños cambios proporcionaban al ordenador la inteligencia suficiente como para categorizar adecuadamente las imágenes que nunca había visto. Las redes de aprendizaje profundo de la actualidad usan algoritmos sofisticados y tienen millones de neuronas simuladas con miles de millones de conexiones entre ellas. 
Pero se entrenan de la misma forma
Rosenblatt predijo que los perceptrones pronto podrían lograr hazañas como la de saludar a la gente por su nombre y su idea se convirtió en un eje del recién nacido campo de la inteligencia artificial. El trabajo se centraba en crear perceptrones con redes más complejas ordenadas en una jerarquía de múltiples capas de aprendizaje. Pasar imágenes u otros datos sucesivamente por las capas permitiría a un perceptron abordar problemas más complejos. Desgraciadamente, el algoritmo de aprendizaje de Rosenblatt no funcionaba con múltiples capas. 

En 1969, el pionero de la IA Marvin Minsky, que había ido al instituto con Rosenblatt, publicó una crítica extensa de los perceptrones que se cargó el interés por las redes neuronales de un solo golpe. Minsky afirmaba que conseguir que más capas funcionasen no haría que los perceptrones fuesen lo suficientemente potentes como para ser útiles. Los investigadores en IA abandonaron la idea de hacer software capaz de aprender. En cambio se volvieron hacia el uso de la lógica para crear facetas funcionales de la inteligencia, por ejemplo, la habilidad de jugar al ajedrez. Las redes neuronales quedaron en los márgenes de la ciencia de la computación.

Sin embargo. cuando LeCun era estudiante de ingeniería en París (Francia) a principios de los años 80, quedó fascinado cuando descubrió los perceptrones. "Me parecía increíble que funcionase y me preguntaba por qué lo habían abandonado", explica. Se pasó días en una biblioteca de investigación cerca de Versalles (París, Francia), en busca de artículos publicados antes de que se extinguiesen los perceptrones. Entonces descubrió que un pequeño grupo de investigadores en Estados Unidos volvía a trabajar muy discretamente en las redes neuronales. "Era un movimiento muy marginal", afirma. En artículos cuidadosamente desprovistos de las palabras "neuronales" y "aprendizaje" para evitar el rechazo de los revisores, estaban trabajando sobre algo muy parecido al viejo problema de Rosenblatt de entrenar a redes neuronales con múltiples capas.

LeCun se unió a este movimiento marginal después de conocer a sus figuras principales en 1985, entre ellas un irónico británico llamado Geoff Hinton que ahora trabaja en Google y en la Universidad de Toronto (Canadá). Se convirtieron inmediatamente en amigos y admiradores mutuos y en el núcleo de una pequeña comunidad que revivió la idea de las redes neuronales. La creencia de que usar un mecanismo central como el que se observa en la inteligencia natural era la única forma de crear una inteligencia artificial sostenía sus esfuerzos. “El único método que sabíamos que funcionaba era el cerebro, así que a la larga los sistemas de ese estilo eran lo que tenían que poder funcionar”, afirma Hinton.

El éxito de LeCun en Bell Labs se produjo después de que él, Hinton y otros perfeccionasen un algoritmo de aprendizaje para redes neuronales con múltiples capas. Se conocía como backpropagation y despertó un montón de interés por parte de psicólogos y científicos de la computación. Pero después de que el proyecto de lectura de cheques de LeCun acabase, resultó que la backpropagation fue difícil de adaptar a otros problemas y hubo otro investigador de Bell Labs que inventó una nueva forma de entrenar al software para clasificar datos. Esta nuevo método no implicaba el uso de neuronas simuladas y se consideraba que era más elegante en términos matemáticos. Rápidamente se convirtió en un cimiento de empresas de internet como Google, Amazon y LinkedIn, que lo usan para entrenar a sistemas que bloquean el spam o hacen recomendaciones de cosas que puedes comprar.

Cuando LeCun llegó a NYU en 2003, él, Hinton y un tercer colaborador, el profesor de la Universidad de Montreal (Canadá) Yoshua Bengio, formaron lo que LeCun denomina la"conspiración del aprendizaje profundo". Para demostrar que las redes neuronales podían resultar útiles, desarrollaron silenciosamente formas de hacerlas más grandes, entrenarlas con series de datos mayores y ejecutarlas en ordenadores más potentes. El sistema de reconocimiento de la escritura a mano tenía cinco capas de neuronas, pero ahora podían tener diez o muchas más. 

Alrededor de 2010, lo que ahora se denomina aprendizaje profundo empezó a superar a técnicas establecidas en tareas reales como la clasificación de imágenes. Microsoft, Google e IBM lo añadieron a sus sistemas de reconocimiento del lenguaje. Pero las redes neuronales seguían siendo algo ajeno a la mayoría de los investigadores y en general se las consideraba poco útiles. A principios de 2012 LeCun escribió una encendida carta,publicada primero de forma anónima, después de que un artículo que afirmaba haber establecido un nuevo récord en una tarea de visión estándar fuera rechazado por una importante conferencia. En ella acusaba a los revisores del artículo de "no tener ni idea"y estar "sesgados peyorativamente".

Todo cambió seis meses después. Hinton y dos estudiantes de grado usaron una red como la que hizo LeCun para leer cheques para revolucionar el campo en el principalconcurso para el reconocimiento de imágenes. Este concurso, conocido como el Desafío de Reconocimiento Visual a Gran Escala de ImageNet, pide al software presentado que identifique mil tipos de objetos que van desde una red de mosquito hasta una mezquita. Los concursantes de Toronto identificaron correctamente el objeto en la imagen un 85% de las veces en menos de cinco intentos, lo que suponía 10 puntos porcentuales más que el segundo mejor sistema. Las capas iniciales de neuronas del aprendizaje profundo se optimizaron a sí mismas para encontrar cosas sencillas como bordes y esquinas y las capas subsiguientes buscaban características cada vez más complejas, como formas básicas y finalmente, perros o personas.

LeCun recuerda ver a la comunidad que había ignorado las redes neuronales entrar a presión en la sala en la que los ganadores presentaron un artículo sobre sus resultados. "Se podía ver que, ahí mismo, muchas de las personas más antiguas de la comunidad alucinaron", recuerda. "Dijeron: 'Vale, ahora te lo compramos. Eso es, ya has ganado'".

Los académicos que trabajaban en la visión automática rápidamente abandonaron sus viejos métodos y de repente el aprendizaje profundo se convirtió en una de las principales ramas de la IA. Google compró una empresa fundada por Hinton y los otros dos investigadores que estaban detrás del resultado de 2012 y Hinton empezó a trabajar en la empresa a tiempo parcial en un equipo de investigación conocido como Google Brain. Microsoft y otras empresas crearon nuevos proyectos para investigar el aprendizaje profundo. En diciembre de 2013, el director ejecutivo de Facebook, Mark Zuckerberg asombró a los académicos apareciendo en la mayor conferencia de investigación en redes neuronales y dando una fiesta en la que anunció que LeCun iba a poner en marcha FAIR (aunque aún trabaja en NYU un día a la semana).

LeCun todavía tiene sentimientos contradictorios sobre la investigación de 2012 que convenció al mundo de su punto de vista. "Hasta cierto punto debería haber salido de mi laboratorio", afirma. Hinton comparte esa valoración. "Fue un poco desafortunado que Yann no fuera responsable del sistema que logró el avance", afirma. El grupo de LeCun había hecho más trabajo que cualquiera para demostrar las técnicas que se usaron para ganar el desafío de ImageNet. La victoria pudo haber sido suya si sus calendarios de graduación de estudiantes y otros compromisos no hubieran impedido que su propio grupo se presentase a ImageNet, afirma. LeCun espera que dar con el próximo avance en aprendizaje profundo sirva para empatar el partido.

Aprendizaje del lenguaje
Las oficinas de Facebook en Nueva York están a tres minuto de paseo por Broadway desde la oficina de LeCun en NYU, ocupan dos plantas de un edificio que se construyó como gran almacén a principios del siglo XX. Aquí hay más trabajadores por metro cuadrado que en la sede de Facebook en Menlo Park, California (EEUU), pero también se trasladan en monopatines articulados y hay anuncios de fiestas de la cerveza. La mitad del equipo de LeCun de investigadores en IA trabaja aquí, el resto están entre el campus de Facebook en California y una oficina en París. Muchos de ellos intentan que las redes neuronales comprendan mejor el lenguaje. “He contratado a todas las personas que he encontrado para trabajar en esto”, afirma LeCun.

Una red neuronal es capaz de "aprender" palabras revisando un texto y calculando cómo cada palabra con la que se encuentra se podría predecir por las palabras que la preceden o anteceden. Haciendo esto, el software aprende a representar cada palabra como un vector que indica su relación con otras palabras, un proceso que captura los conceptos en el lenguaje de forma asombrosa. La diferencia entre los vectores para "rey" y "reina" son los mismos que entre "marido" y "mujer", por ejemplo. Los vectores para "papel" y "cartón" están muy cerca el uno del otro. Y los de "grande" y "gran" están aún más cerca.

Este mismo enfoque funciona para frases enteras. (Hinton dice que genera "vectores de pensamiento") y Google está estudiando la posibilidad de usarlo para potenciar su servicio de traducción automática. El trabajo descrito en un artículo reciente de investigadores de una universidad china y el laboratorio de Microsoft en Pekín había usado una versión de la técnica de los vectores para crear software que vence a algunos humanos en las preguntas de un test de inteligencia en el que hay que comprender sinónimos, antónimos y analogías.

El grupo de LeCun trabaja para ir más allá. "El lenguaje en sí mismo no es tan complicado", afirma. "Lo complicado es tener una comprensión profunda del lenguaje y del mundo que te da el sentido común. Eso es lo que realmente nos interesa incorporar a las máquinas". LeCun se refiere al sentido común en el sentido aristotélico: la capacidad decomprender la realidad física básica. Quiere que un ordenador capte que la frase: "Yann recogió la botella y salió de la habitación" significa que la botella salió de la habitación con él. Los investigadores de Facebook han inventado un sistema de aprendizaje automático denominado red de memoria que muestra lo que podrían ser los primeros indicios del sentido común.

Una red de memoria es una red neuronal con un banco de memoria adjunto para almacenar los datos que ha aprendido y que no se borren cada vez que recibe nuevos datos. El laboratorio de IA de Facebook ha creado versiones capaces de responder a preguntas de sentido común sobre textos que no han visto antes. Por ejemplo cuando los investigadores dieron a una red de memoria un resumen muy simplificado de la trama deEl señor de los anillos, fue capaz de responder a preguntas del tipo: "¿Dónde está el anillo?" y "¿Dónde estuvo Frodo antes de ir al Monte del Destino?". Podría interpretar el mundo sencillo descrito en el texto a pesar de no haberse encontrado anteriormente con muchos de los nombres u objetos como "Frodo" o "anillo".

El software adquirió su sentido común rudimentario cuando se le enseñó a responder a preguntas sobre un texto sencillo en el que personajes hacen cosas en una serie de habitaciones como: "Fred fue al dormitorio y Joe entró en la cocina". Pero LeCun quiere exponer al software a textos que son mucho mejores a la hora de captar la complejidad de la vida y las cosas que un ayudante virtual tendría que hacer. Se espera que el lanzamiento por parte de Facebook de un conserje virtual llamado Moneypenny pueda ser una de las fuentes de esos datos. Se dice que el ayudante estará respaldado por un equipo de operadores humanos que ayudará a la gente a hacer cosas como reservas en restaurantes. El equipo de LeCun podría tener un red de memoria vigilando por encima de hombro de Moneypenny antes de acabar dejando que aprenda interactuando con humanos ella sola.

Ahora mismo construir algo capaz de mantener una conversación básica y muy limitada exige una gran cantidad de trabajo. Por ejemplo, las redes neuronales solo han demostrado un razonamiento muy sencillo y los investigadores aún no han averiguado cómo se les puede enseñar a hacer planes, explica LeCun. Pero los resultados del trabajo llevado a cabo por ahora con la tecnología le dan confianza sobre hacia dónde se encaminan las cosas. "La revolución está en camino", sostiene.

Otros no lo tienen tan claro. Por el momento el software de aprendizaje profundo solo ha demostrado las capacidades más sencillas para lo que los humanos reconoceríamos como una conversación, explica el director ejecutivo del Instituto Allen para la Inteligencia Artificial de Seattle (EEUU), Oren Etzioni. La lógica y las capacidades de planificación que aún son necesarias, explica, son muy distintas de las cosas que las redes neuronales han estado haciendo mejor: digerir secuencias de píxeles u ondas acústicas para decidir qué categoría de imagen o palabra representan. "El problema de comprender el lenguaje natural no se puede reducir de la misma forma", afirma.

El profesor de psicología y ciencia neuronal de la NYU Gary Marcus, que ha estudiado cómo aprenden el lenguaje los humanos y acaba de montar una empresa de IA llamada Geometric Intelligence, cree que LeCun subestima lo difícil que le resultaría al software existente aprender el lenguaje y el sentido común. Entrenar al software con grandes volúmenes de datos anotados está bien para conseguir que clasifique imágenes. Pero Marcus duda que pueda conseguir las habilidades más complejas necesarias para el lenguaje, donde el significado de las palabras y las frases complejas puede cambiar dependiendo del contexto. "Con el tiempo, la gente analizará el aprendizaje profundo y dirá que es una técnica muy potente, dirá que fue la primera vez que la IA resultó práctica", afirma. "Pero también dirá que esas cosas exigían muchos datos y que había campos en los que simplemente no había suficientes". Marcus cree que el leguaje puede ser uno de esos campos. Para que el software domine el arte de la conversación necesitaríaaprenderlo como un niño que lo atrapa sin instrucciones explícitas, sugiere.

Creencia profunda
En la sede de Facebook en California, los miembros de la costa oeste del equipo de LeCun se sientan cerca de Mark Zuckerberg y Mike Schroepfer, el director tecnológico de la empresa. Los líderes de Facebook saben que el grupo de LeCun sigue estando lejos de crear algo con lo que puedas hablar, pero Schroepfer ya está pensando en cómo usarlo. El Facebook del futuro que describe recupera y coordina la información como un mayordomo con el que te comunicas tecleando o hablando como harías con uno humano.

"Podrás relacionarte con un sistema capaz de comprender de verdad conceptos y el lenguaje a un nivel mucho más alto", afirma Schroepfer. Imagina poder pedir ver las fotos del bebé de un amigo, pero no los chistes de ese mismo amigo, por ejemplo. "Creo que a corto plazo una versión de eso es muy realizable", sostiene. Y espera que, según vayan adquiriendo mejores capacidades de razonamiento y planificación, los sistemas de LeCun permitan que la conversación sea menos unidireccional. Facebook podría ofrecer información que cree que te gustaría y preguntarte qué te ha parecido. "Con el tiempo acabaría siendo un ayudante superinteligente conectado a todos los flujos de información del mundo", explica Schroepfer.

No está claro en qué nos beneficiará tener ayudantes virtuales más inteligentes, pero no tardaremos mucho en saberlo.

Los algoritmos necesarios para mover este tipo de interacciones también mejorarán los sistemas que usa Facebook para filtrar las noticias y anuncios que vemos. Y podrían ser vitales para las ambiciones de Facebook de convertirse en algo mucho más que un sitio en el que socializar. Ahora que Facebook empieza a alojar artículos y vídeos de empresas de medios y de entretenimiento, por ejemplo, necesitará mejores formas de que la gentemaneje la información. Los ayudantes virtuales y otros productos derivados del trabajo de LeCun también podrían ayudar a proyectos más ambiciosos alejados de su negocio original, como el grupo Oculus que trabaja para hacer que la realidad virtual se convierta en una tecnología de consumo.

Nada de esto tendrá lugar si los impresionantes resultados recientes sufren el mismo destino de anteriores grandes ideas en IA. La emoción florecida en torno a las redes neuronales ya se ha marchitado dos veces. Pero aunque quejarse de que otras empresas o investigadores dan demasiado bombo a su trabajo es uno de los pasatiempos preferidosde LeCun, afirma que existen suficientes pruebas circunstanciales que respaldan con confianza sus propias predicciones de que el aprendizaje profundo dará lugar a impresionantes resultados. La tecnología sigue consiguiendo más precisión y potenciaen cualquier campo de la IA en la que se ha aplicado, afirma. Hacen falta nuevas ideas sobre cómo aplicarla al procesado del leguaje, pero este campo que aún es pequeño se expande rápidamente ahora que empresas y universidades le dedican más gente. "Eso acelerará el progreso", explica LeCun.

Aún no está claro que el aprendizaje profundo pueda dar lugar a algo parecido al mayordomo de información que imagina Facebook. Y aunque pueda, cuesta saber cuánto se beneficiaría el mundo de algo así. Pero quizá no tengamos que esperar demasiado para averiguarlo. LeCun cree que habrá ayudantes virtuales con un dominio del lenguaje sin precedentes de aquí a cinco años. Espera poder demostrar mucho antes a cualquiera que dude de la capacidad del aprendizaje profundo para dominar el lenguaje, que se equivoca. "Se está dando el mismo fenómeno que observamos justo antes de 2012", explica. "Las cosas empiezan a funcionar, pero la gente que sigue técnicas más clásicas sigue sin estar convencida. Dentro de un año o dos, se habrá acabado". (MIT)

Google+ Badge

Wikio

Wikio – Top Blogs
Se ha producido un error en este gadget.

Formulario de contacto

Nombre

Correo electrónico *

Mensaje *

Archivo del blog