Podemos hablar de cinco tipos distintos de interfaces:
-
Conocido también como WIMP, se estructura por medio de una representación que combina objetos gráficos como ventanas, menús, botones de radio, botones de marcar e iconos, dentro de un entorno contextualizado por algún tipo de metáfora (v.g. escritorio). Utiliza como dispositivos de entrada, además del teclado, algún instrumento apuntador que permite seleccionar qué parte del entorno manipularemos como usuarios. Las primeras interfaces PUI surgieron de los desarrollos llevados a cabo en los laboratorios de Xerox PARC (Palo Alto Research Center) a finales de los años setenta, si bien el primer sistema operativo que instrumentalizó la idea fue la compañía Apple, con sus ordenadores Macintosh, entrados ya en la década de los setenta. El éxito obtenido animó a IBM y Microsoft para acoger estas ideas en sus especificaciones Common User Access, que son la base de las interfaces de los sistemas operativos Microsoft Windows e IBM OS/2, además de las de otros interfaces para otros entornos basado en Unix. Actualmente vivimos rodeados digitalmente de estos modelos de interfaz.
Fuente: Animal Logic
-
Son todas aquellas interfaces basadas en el uso de pantallas táctiles. Creada por Eugene Mosher, uno de los pioneros de la Teoría de la interacción hombre-máquina, su lógica representacional es muy similar a las PUI, dado que la forma de organizar la información y mostrarla en pantalla responde a criterios muy homogéneos cuando no idénticos. La diferencia fundamental radica en la forma de interacción que se le propone al usuario; en este caso, gracias a la capacidad sensitiva de la capa de contacto (pantalla), el dispositivo apuntador no es una extensión electrónica, si no que esta responde a la presión efectuada. Su utilización es habitual en puestos electrónicos (cajeros, sistemas electrónicos de control…) en sistema de control domótico, y, de forma profusa en los últimos años, en dispositivos de informática y comunicación móvil (PDAs, móviles, etc.)
-
Se trata de un sistema avanzado de interfaz basado en realidad virtual, en el que se mezclan elementos 3D con sistemas planos multicapa. Son numerosos los grupos de investigación que actualmente están trabajando en Norteamérica y Europa para el desarrollo de este modelo de interfaz dirigido hacia la experiencia de usuario, pues aporta mayor realismo y flexibilidad al tradicional concepto de interfaz. Su utilidad está enfocada hacia los dispositivos de pantalla reducida, fundamentalmente los de movilidad, por lo que las líneas de investigación están dirigidas a la búsqueda de modelos que optimicen las prestaciones de estos entornos reducidos mediante sistemas de representación complejos en los que sea sencillo pasar entre escalas y representar distintos niveles de detalle.
Los elementos de información en una interfaz ZUI son mostrados directamente en un escritorio virtual “infinito”, usando gráficos vectoriales en vez de ventanas. Los usuarios pueden pasar de un plano general del escritorio virtual y hacer zoom en los objetos de su interés… (2007)
Entre los proyectos más conocidos que usan la interfaz de Zooming destaca Google Maps y Google Earth, donde el usuario puede cambiar la escala del visionado (hacer zoom) para obtener más detalle de una zona en concreto. Los primeros intentos para desarrollar el interfaz ZUI fue el proyecto Pad++, llevado a cabo por la New York University y continuado por la University of New Mexico, con el que se desarrolló Piccolo, y ahora la reciente versión Piccolo2D, a través de Java. Además de ampliar, permite crear efectos visuales de animación.
.
-
La última innovación en el campo del diseño de las interfaces viene de la mano de las conocidas como interfaces 3D. Este tipo trata de vencer el modelo tradicional 2D basado en modelo lineales y rígidos, para ofrecer sistemas de interacción más complejos, con mayores funcionalidades integradas, con arquitecturas menos rígidas y predefinidas, y que permitan modelos de interacción más cognitivos que físicos. En este campo se hallan iniciativas como el proyecto de Sun Microsystems, //Looking Glass//, una plataforma abierta que trata de explorar las posibilidades de las Interfaces de usuario en 3D. En esa misma línea, se encuentra el proyecto //Open Croquet//, de la fundación “The Croquet Consortium”, que amplía el concepto de GUI 3D añadiéndole el concepto de multiusuario, o el proyecto Virtual Objet System (VOS) que incorpora una tecnología informática para crear sistemas distribuidos de objetos.
Fuente: Fundación “The Croquet Consortium”.
Las características básicas que definen este modelo de interfaces son:
- Aprovechan las posibilidades de la Web 2.0, pues trabajan en modelos de proceso en servidor (aplicaciones y sistemas operativos en línea)
- Ofrecen un sistema de interacción 3D cercano a los modelos de los videojuegos.
- Poseen estructuras más abiertas que permiten a los usuarios compartir y crear información en línea, con arquitecturas de red P2P (par a par)
-
Se trata de interfaces que utilizan simultáneamente varios sentidos (vista, oído y voz) para ofrecer a los usuarios una experiencia de usuario más natural y sencilla. Se trata de un sistema novedoso, que soporta los estándares industriales básicos: WML, HTML, XHTML , VoiceXML, C++ y Java. Aplicada al campo de los dispositivos móviles (como la patente Interacción natural de la empresa Vida Software) permite enriquecer las aplicaciones de contenidos para móviles a través de interfaces de usuario multimodales y biométricas. Las interfaces multimodales son de las más adaptadas para usuarios con discapacidades y permiten acceder a una web desde diferentes dispositivos. Según Caicedo Castro y Rueda Fajardo, la aproximación más básica consiste en codificar la información en varios formatos:
En HTML para que puedan acceder los PC de escritorio y portátiles, en WML para que puedan acceder teléfonos celulares y PDA a través de WAP; además, consiste en construir aplicaciones especiales para interactuar por otras modalidades de conexión como SMS o MMS. Los inconvenientes de este enfoque, que a veces se llama “múltiple authoring” (Simon, Wegscheider y Tolar, 2005) son los típicos de la replicación: duplicación de trabajo, posibilidad de inconsistencias y dificultad de mantenimiento (Caicedo Castro y Rueda Fajardo, 2008).
Procesamiento de la señal Audiovisual en Interfaces Multimodales Avanzados
En el siguiente vídeo vemos la nueva herramienta, llamada Cyber-commons, impulsada por una plataforma de software llamado SAGE (escalable adaptable entorno gráfico). SAGE permite a varios usuarios interactuar simultáneamente con alta resolución en una gran pantalla de pared, usando una variedad de dispositivos de entrada, tales como multi-touch, laptops, gyromouse, el Wiimote… Una muestra más de la capacidad de evolución de la sociedad de la información y, sobre todo, de las nuevas tecnologías.
Varios usuarios pueden analizar y manipular información de forma simultánea a través de interfaces de usuario multimodales (por ejemplo, contacto y laptops personales). El gran tamaño y la alta resolución de la pared anima a todos los participantes a compartir información arrastrando y soltando archivos multimedia y documentos desde sus computadoras portátiles o recuperar información, ya cargada, de sesiones de trabajo anteriores. Dando a cada usuario el control sobre la pantalla de pared y permitiendo la interacción verdaderamente simultánea, hace que el trabajo de colaboración sea más dinámico e intuitivo, ya que cada usuario puede participar y contribuir sin interferir con los otros. Además, cada usuario puede emplazar su escritorio personal en la pared que elimina la necesidad de cambiar los cables de vídeo o ver sólo un escritorio a la vez, como es el caso en los tradicionales entornos basados en proyector.
Debido a estas dificultades, se han desarrollado otras aproximaciones, como por ejemplo, usar formatos estándar como XHTML; convertir un recurso codificado en HTML o XML (formatos neutros) al formato que nos interesa; o el estándar tecnológico VoiceXML Forum, que permite el acceso a contenidos web a través de teléfonos y sigue los estándares de W3C.
La mayoría del diseño de las interfaces de usuario se ha centrado en el aspecto cognitivo y en la representación visual de la información. Sin embargo, en este terreno de las interfaces multimodales es donde se sitúan las fronteras que más se están explorando. Emergen nuevos dispositivos y con ellos nuevas interfaces donde el cuerpo y la interacción con él cobran protagonismo. Donde encontramos algunos de los avances más espectaculares es en las interfaces gestuales. Como casi siempre, los videojuegos han sido punteros en aplicar está tecnología (Wii, Kinect, etc.) pero los usos potenciales son enormes. La tecnología Sixth Sense [1] es un ejemplo espectacular de interfaz gestual, que pretende eliminar la barrera entre en el mundo virtual y el físico, integrando ambos.
A partir de esta tecnología, Microsoft elaboró una visión del futuro de nuestra interacción con los datos virtuales. En esta visión se apuntan las características con las que evolucionarán las interfaces y cómo habrán de tener en cuenta no solo el aspecto visual. Jakob Nielsen, uno de los expertos mundiales más reputados en el tema de la usabilidad, publicó una lista con las que, a su juicio, eran las 10 mejores interfaces de usuario que podían encontrarse en Internet. Son las siguientes:
- Campaing Monitor. EyeBlaster (Israel)
- CMSBox. CMSBox (Suiza)
- PRISMAprepare. Océ (Holanda)
- FotoFlexer. Arbor Labs (EEUU)
- Seating Management. Magellan Network and DesingBox (EEUU)
- SQL Diagnostic Manager. Idera (EEUU)
- SugarSync. Sharpcast (EEUU)
- SuperSaaS. SuperSaas (Holanda)
- Wufoo. Infinity Box Inc. (EEUU)
- Xero. Xero (Nueva Zelanda)
Related Posts
Ciberimaginario
Latest posts by Ciberimaginario (see all)
- Desarrollo de productos: Introducción - 10/10/2013
- Conceptos esenciales - 10/09/2013
- Elementos básicos de la Interfaz de Usuario - 09/24/2013