La interacción con el entorno o los dispositivos que nos rodean es un campo que no siempre se expone abiertamente al público general. Normalmente, se queda en la trastienda de los laboratorios y centros de investigación de las empresas que tienen que ofrecer un producto o servicio.
Lo importante que los usuarios perciban esa interacción de un modo positivo y, preferiblemente, invisible. Es decir, que la interacción con esos servicios, productos o dispositivos sea lo más fluida y natural posible y que estos hagan lo que están diseñados para hacer, ya sea preparar un café, comprar una entrada en una web o tomar una foto con un smartphone.
El usuario y su relación con los dispositivos
Aquellos solo algunos ejemplos de lo que se ha dado en llamar la “Experiencia de Usuario” o UX por sus siglas en ingles. En la interacción con la página web, el smartphone o con la cafetera en su dimensión industrial, interviene también un elemento que se sitúa entre el usuario y el ordenador, la cafetera o el móvil. Este permite exponer correctamente al usuario las posibles formas de interacción con estos servicios, productos o dispositivos. Estamos hablando de la “Interfaz de Usuario” o UI, por sus siglas en inglés.
La historia de la tecnología es también la historia de estos dos elementos que se han convertido en un campo de investigación y trabajo con entidad propia: UX/UI. El éxito o el fracaso de productos y servicios depende en gran medida de que la experiencia de usuario sea óptima y de que la interfaz de usuario esté correctamente implementada.
El iPhone, sin ir más lejos, fue un éxito gracias a la perfecta implementación de la interfaz de usuario táctil, con una experiencia de uso natural, fluida y óptima para manejar el terminal. En un momento donde el teclado era aún la interfaz mayoritaria, incluso en los móviles, la llegada de la tactilidad bien hecha supuso un antes y un después.
La voz, el siguiente reto en UX/UI
El siguiente reto es la voz. Puede que, en un futuro no muy lejano, la interacción táctil con los dispositivos móviles se vea tan obsoleta como ahora vemos al teclado físico. En este terreno aún queda mucho trabajo por hacer, aunque 2018 ha sido el año de los asistentes Google Home y Amazon Alexa.
Kantar estima que en 2022 las búsquedas de voz pueden suponer hasta el 40% del total de búsquedas globales. En Estados Unidos, dicha consultora prevé que Amazon obtendrá 10.000 millones de dólares en 2020 solo con Amazon Echo, uno de sus productos basados en la interfaz de voz o VUI (Voice User Interface).
La voz es un desafío tanto para la experiencia de usuario como para el diseño de la interfaz de usuario. Sobre la mesa de los diseñadores y desarrolladores en este campo tenemos cuestiones como el ruido ambiental ─que puede afectar a la interacción con la voz─, así como el uso de lenguaje natural o el de algún tipo de slang específico para hablar con los dispositivos.
Igualmente, se contempla la privacidad en espacios donde haya más personas, la forma en la que los dispositivos “hablan” con los usuarios... También intervienen otros factores, como los propios aparatos con los que hablamos o "escuchamos" e incluso el grado de aceptación que adquiramos ante el uso de la voz como medio para interactuar con los dispositivos.
Google, Amazon, Apple, Samsung o Microsoft son algunos de los jugadores más importantes en esta liga. De hecho, trabajan activamente para diseñar sus propios asistentes de voz. El Asistente de Google o Alexa de Amazon son los más conocidos, pero Samsung cuenta con Bixby y Microsoft sigue trabajando en Cortana. También Facebook estaría haciendo lo propio con Aloha.
La realidad es que la tarta es muy apetecible. Poco a poco, nos estamos familiarizando con la interacción hablada con la tecnología, acercándonos al futuro planteado en el cine en películas como 'Her', y no es raro que nadie quiera quedarse fuera.
UXperience 8.0, con el foco en las VUI
Precisamente, para abundar en este y otros temas que abarcan la relación del usuario con los dispositivos, se organiza el seminario monográfico UXperience. La próxima convocatoria tendrá lugar el próximo sábado, 12 de enero, en el auditorio La Casa del Lector sito en el Matadero Madrid. Constituye la octava edición y el eje central de este encuentro entre profesionales del mundo UX/UI será la experiencia de usuario en las VUI (Voice User Interfaces o interfaces de usuario basadas en la voz).
Entre los ponentes, encontramos profesionales de Google y Amazon, como Javier Martínez, sales engineering manager en Google Cloud, y Germán Viscuso, technical evangelist en Amazon. Pero también tendremos la oportunidad de escuchar a expertos independientes como Helen Creeger, especialista en VUX y VUI.
Helen Creeger hablará de las mejores prácticas para diseñar experiencias de usuario mejores en el contexto de estas plataformas de voz que empiezan a estar a disposición de los usuarios como una forma más de interacción con los productos, servicios o dispositivos que las empresas ofrecen.
UXperience está organizado por Ironhack y Webedia. La primera es una startup con el foco puesto en la enseñanza de la tecnología que tiene presencia en 8 países y más de 2.000 estudiantes graduados. Por su parte, Webedia es una de las empresas de referencia de medios online en Europa, con más de 70 sitios web y aplicaciones en todo el mundo, superando la treintena de webs en España.
Además de ser la editora de Genbeta, entre sus medios más populares destacan Xataka, 3DJuegos, SensaCine, Directo al Paladar o Trendencias, algunos de los cuales ya apuestan por las interfaces de voz. El grupo incluye a más de 220 millones de usuarios únicos mensuales a través del mundo en dispositivos multiplataforma. Estas cifras permiten entender la importancia que tiene para Webedia participar en el desarrollo y adopción de interfaces y experiencias de usuario fluidas y satisfactorias para su audiencia.
Durante el transcurso de esta jornada de masterclasses y al finalizar las mismas, miembros de Webedia compartirán con la comunidad UX su experiencia en este sector. Gracias a ellos y los expertos invitados, los asistentes tendrán la oportunidad de conocer de primera mano los desarrollos y avances en el área de las interfaces de voz y la experiencia de usuario que se obtiene a partir de ellos.
La cita durará media jornada, dará comienzo a las 10:00 horas de la mañana y las ponencias empezarán a las 10:30 horas, tras una introducción previa de 15 minutos. Las ponencias serán de 50 minutos, interviniendo en primer lugar Javier Martínez de Google, para continuar con Germán Viscuso y acabar con Helen Creeger.
A las 13:00 horas tendrá lugar el cierre de esta convocatoria y, de manera informal, se abrirá un encuentro de networking con los ponentes y los asistentes durante el que intercambiar impresiones, aclarar dudas y hacer nuevos contactos. En la siguiente tabla os ofrecemos un resumen de la agenda:
Horario | Actividad |
---|---|
10:00 | Recepción de los asistentes en el auditorio 'La Casa del Lector' |
10:15 | Introducción a UXperience 8.0 |
10:30 | Primera ponencia con Javier Martínez, sales engineering manager en Google Cloud |
11:20 | Segunda ponencia con Germán Viscuso, technical evangelist en Amazon |
12:10 | Tercera ponencia con Helen Creeger, experta en VUX y VUI |
13:00 | Cierre con pizzas y cervezas para conversar en un ambiente distendido |
El precio de asistencia oscila entre 3,33 y 6,65 euros, en función de la anticipación con la que saquemos las entradas. Para ello, solo tienes que pulsar en este enlace y adentrarte en el fascinante mundo del futuro controlado por la voz en su lenguaje más natural.