Fuente: Youtube – Microsoft: Productivity Future Vision (link)

Continuaremos con la explicación del video Microsoft: Productivity Future Vision (https://www.youtube.com/watch?v=w-tFdreZB94), del post anterior.

En el segundo 1:20 vemos a Kat Liang utilzando un Flexible Oled Display, el cual también es touch, y a través de estos gestos puede visualizar, cambiar el layout y publicar el contenido del estudio que viene realizando junto con otro personaje a través de alguna herramienta colaborativa de videoconferencia.

Notamos que la interfaz que aparece sobre el flexible oled display sigue un estándar, a nivel de interfaz de usuario (UI), y tiene muy bien definidos su experiencia de usuario (user experience – UX) y su diseño de interacción (interaction design – IxD) para cualquier acción o comando que desee realizar sobre la aplicación que está utilizando.

En el segundo 2:20 aparece una ejecutiva de cabello blanco, la cual ingresa por una puerta que tiene un sistema de control de accesos, pero en vez de utilizar una común tarjeta de proximidad como las que conocemos ahora, debe estar utilizando algún sensor RFID o Bluetooth, o su mismo smartphone, a fin de ser reconocida y que las puertas se abran automáticamente. No, no es un simple sensor del tipo Passive Infrared Sensor que detecta la presencia de alguien delante de la puerta.

Segundos después recibe una llamada mientras está subiendo las ecaleras, en su auricular bluetooth con micrófono incluido, para que luego se acerque a un Transparent Oled Display del tipo Large Screen Surfaces, donde se mostrará un mensaje de si desea continuar en dicho dispositivo la llamada o conferencia recibida segundos antes.

En los 2 últimos párrafos está presente una tecnología denominada Context Awareness. ¿Y qué es context awareness? Context Awareness definido de manera sencilla es la habilidad que tiene un sistema o algún componente de un sistema, de recolectar información de su entorno en un momento dado y de adaptar su comportamiento o respuesta en consecuencia.

No solamente debe entenderse que el Context Awareness reacciona ante el posicionamiento y la localización del usuario, como los 2 escenarios indicados anteriormente, donde entendemos que las puertas se abren porque una persona con las autorizaciones respectivas se aproxima, o porque alguien se acerca a algún dispositivo y el contenido puede aparecer en el dispositivo más cercano. Imaginemos un escenario donde una persona está caminando con una llamada telefónica en su celular, y pasa por una construcción por lo que el ruido afecta la comunicación. La aplicación de llamadas telefónicas, por context awareness automáticamente debería de subir el volumen y aplicar un filtro al ruido que percibe del ambiente, para sólo transmitir la voz del usuario. En otro post, explicaremos esta tecnología y su alcance.

Luego, la ejecutiva revisa sus tareas y le pregunta a la aplicación: “who are the top candidates here?” (¿quiénes son los candidatos top aquí?). La aplicación hace uso de la tecnología de Speech Recognition, para transcribir lo que la ejecutiva dijo, y gracias a técnicas de Natural Language Processing (o NLP), la aplicación es capaz de entender y comprender qué es lo que la ejecutiva necesita.

La aplicación responde de manera gráfica, utilizando técnicas de Data Visualization (o Information Visualization), para brindar una mejor experiencia de usuario a la ejecutiva. En este caso, quien diseño la aplicación decidió que el mejor tipo de gráfico es un Diagrama de Cuerdas (o Chrod Diagram) para presentar los candidatos y los países donde han desarrollado proyectos. Luego de ello se presenta un Diagrama de Radar (o Radar Chart) y un Gráfico de Columnas Radiales (Radial Column Chart), a fin de comparar los skills de los candidatos restantes.

Finalmente, con un Device Shifting, entre el transparent oled display y su tablet, se lleva el contenido del candidate seleccionado.

En la siguiente escena, podemos ver nuevamente a Kat Liang utilizando un wearable que pasa de ser dos pulseras, para convertirse en una especie de Smartwatch, el cual es controlado utilizando la tecnología de Muscle Computer Interfaces (o muCIs).

Espero les haya servido, y espero también esta semana terminar las siguientes partes explicativas del video 🙂