Las grandes tecnológicas quieren enterrar las pantallas. Google y Amazon compiten con sus asistentes de voz virtual, algo en lo que Apple ya tiene experiencia con Siri, pero no han desarrollado más allá de sus productos. Microsoft, con Cortana, su asistente, no quiere quedarse atrás, pero lo hace con otra visión. Primero incluyeron traducción de idiomas en tiempo real en Skype, para poder mantener conversaciones con alguien que hable otro idioma, y ahora quieren ir más allá con conversaciones naturales con personajes ficticios. Los de Seattle acaban de liberar una serie de 25 herramientas que van a permitir a los desarrolladores cambiar la forma en que humanos y máquinas nos relacionamos.

La combinación entre inteligencia artificial y reconocimiento de lenguaje natural pretende hacer que se usen nuevas interfaces sin tener la sensación de estar ante algo artificial. Estas herramientas, que se van a promocionar bajo el nombre de Microsoft Cognitive Services, van a permitir detectar el estado de ánimo de los usuarios, entender diferentes idiomas, acentos y giros, así como permitir que más profesionales, sin experiencia previa se unan al campo del machine learning.

Mike Seltzer, director de reconocimiento del lenguaje en Microsoft, cree que este salto va a beneficiar a toda la industria: “Queremos que sea fácil. En la mayoría de los casos lleva mucho tiempo y experiencia, y un gran esfuerzo de análisis, hasta que se consigue que las máquinas comiencen a hacer bien sus predicciones de patrones”. Aunque esta tecnología está ahora en la cresta de la ola, con Google promocionando intensamente Tensor Flow, un sistema sofisticado y potente pero quizá no tan sencillo de usar, el equipo de Seltzer lleva una década trabajando en ello.

Dentro de los planes de Microsoft se encuentra liberar herramientas similares para moderar contenido y reconocer el sentido de frases habladas en su buscador. En el caso de la moderación será muy práctico para los gestores de contenido, de modo que puedan verificar la conveniencia de publicar expresiones, acrónimos o imágenes según en qué páginas web.

La combinación entre inteligencia artificial y reconocimiento de lenguaje natural pretende hacer que se usen nuevas interfaces sin tener la sensación de estar ante algo artificial

El pasado viernes, durante una prueba de algunos de estos servicios, Microsoft mostró en su laboratorio en San Francisco los resultados y posibilidades. lo hizo con un videojuego, todavía en alpha, como se llama a las versiones preliminares en el argot, y una aplicación para reconocer qué sucede en un espacio.

Starship Commander es el primer título de Human Interact, una startup de videojuegos. El título, pensado para usarse en realidad virtual, se maneja con la voz. El interlocutor supo que el jugador no hablaba inglés nativo a las primeras de cambio, por ejemplo, pero no se tenía la misma sensación con la instructora cuyas órdenes y recomendaciones enseñaban a manejarse en el entorno. Una de las cualidades más curiosas de este título es que cada jugador tendrá una experiencia diferente según las decisiones que tome. Alexander Mejía, director del juego, da una de las claves de este salto: “Para los que hacemos videojuegos es un adelanto, porque se pueden plasmar sensaciones reales en el mundo digital como nunca antes”.

Prism Skylabs, una startup de San Francisco, usa estos servicios de análisis cognitivo para sacar más partido a imágenes. Uno de los ejemplos que mostraron se basó en el metraje de un circuito cerrado de vídeo en una empresa. Con solo hacer búsquedas sencillas, escritas en el mismo lenguaje en que se expresa cualquiera en inglés, podían saber quién recogió un paquete en recepción, cuántos perros hubo el martes en la oficina o la media de café que toma un empleado cada día.

/El País de España

/gap