Inteligencia artificial‘machine learning’ son los conceptos clave en todo esto. El reto para la compañía de Cupertino se plantea en que las respuestas por voz y la interacción con Siri sea lo más natural posible. Y en todo ello los patrones y la entonación tienen gran importancia. Apple ha conseguido que los segmentos de voz pronunciados por Siri –pre grabados, como es evidente- se puedan combinar de mejor manera para dar respuestas con un sonido más natural. Y para ello han hecho falta más de 20 horas de discursoen inglés, para Estados Unidos-, y hasta 20 millones de segmentos de audio.

Siri tiene más de 20 horas de discurso grabadas en hasta 20 millones de segmentos de audio

Para elaborar respuestas naturales, el asistente virtual de Apple ha tenido que recibir nada menos que 20 horas de grabación. Y una cantidad similar de tiempo es la que será necesaria para la elaboración de las mismas respuestas en otros idiomas además del inglés. Para la ‘confección’ de un idioma al alcance de Siri, para que pueda trabajar con él, son necesarios entre 1 y 2 millones de segmentos de audio que se combinan entre sí. Y en todo ello la tecnología de ‘machine learning’ es capaz de hacer que estas respuestas sean cada vez más naturales, y se combinen como corresponde para el diálogo con el usuario.

En iOS 11, el asistente virtual Siri no sólo va a hablar a los usuarios con un lenguaje más natural y una entonación más correcta, sino que además recibirá una amplia cantidad de nuevas funciones. En definitiva, se trata de uno de los ‘platos fuertes’ de la compañía de Cupertino para su nuevo sistema operativo, y probablemente esté avanzando más rápido que la alternativa de Google.

 

Fuente: Apple | adslzone