viernes, 18 de mayo de 2012

LA INTERACCIÓN MÁS NATURAL: EL RECONOCIMIENTO DE VOZ Y SIRI


¿Cuál es la forma más simple y natural que el ser humano conoce para interactuar con los que le rodean? ¿y la que más usa a lo largo del día? A ambas preguntas la respuesta es clara e indudable: la voz, ya que hablar con las personas es algo que hacemos todo el día y nos resulta sumamente natural. Por eso hay numerosos proyectos de reconocimiento de voz que están saliendo al mercado tecnológico.

Una de los últimos sistemas y que está dando mucho que hablar es Siri, el sistema de reconocimiento de voz del iPhone 4S. Siri es un asistente personal que entiende lo que dices y responde en consecuencia ayudándote con un lenguaje rico y humano. Actualmente no te entiende si le hablas en español ya que solo "habla" inglés, francés, alemán y japonés, pero Apple ya ha anunciado en su página web que para este 2012 presentará versiones en chino, coreano, italiano y español.

Algunas de las sorprendentes cosas que Siri es capaz de hacer con tan solo escucharlo de tu voz son:
- Enviar y leerte correos electrónicos y sms (“Correo a Marta: ¿Puedes enviarme aquellas fotos?”).
- Fijar citas (“Reunirme con David y Fran mañana para hacer una práctica”) avisándote si hay algún       v   conflicto con tu agenda actual.
-Recordatorios geolocalizados (“Recuérdame que llame a Julia cuando llegue a casa”).
- Localizar un lugar y darte las instrucciones de cómo llegar hasta él (“¿Cuál es la mejor pizzeria de por aquí?”)
-Buscarte un número (“Dime el número de Nadia”)
-Fijar alarmas....y mucho más.

Pero en los últimos días, por lo que más se habla de este sistema es por la polémica que se ha levantado en torno a él debido a dos noticias.Por un lado algunos consumidores han demandado a Apple por las altas expectativas generadas alrededor de esta tecnología en sus anuncios, y que según ellos no se corresponde a la realidad.

Por otro lado,el otro día saltaba la noticia en la red de que si le preguntas ¿cuál es el mejor teléfono del mercado? Siri respondía "Nokia Lumia 900 Cyan". La respuesta es muy curiosa ya que se trata de un teléfono de la competencia, perteneciente a una empresas con la que la compañía de la manzana solo se habla con un juez delante. La noticia corrió como la pólvora, con los consiguientes movimientos de ambas empresas: Nokia se dedicó a difundirlo lo máximo posible y Apple rápidamente cambió esta respuesta de su base de datos y ahora responde con un irónico  "Espera... ¿Hay otros teléfonos?"


Pero si hablamos de reconocimiento de voz,el mejor en dicha labor es la supercomputadora "Watson" de IBM, que fue capaz de vencer a los dos mejores jugadores de un concurso norteamericano en el que los participantes deben de responder muy rápido y de forma correcta a las preguntas que se les plantea.¿significa esto que las máquinas superan ya intelectualmente a los humanos? Imposible ya que no debemos de olvidar que estas son elaboradas y programadas por personas de carne y hueso.

Desde mi punto de vista en un futuro no muy lejano esta forma de interacción hombre-maquina vendrá integrada en casi todos los dispositivos que salgan al mercado debido a su sencilla y natural interfaz. Es cierto que muchos dispositivos como por ejemplo los coches ya lo integran,pero no a la escala que Siri nos ofrece.

jueves, 17 de mayo de 2012

¡ MOVIENDO OBJETOS CON LA MENTE !


Mover objetos con la mente: un sueño para del hombre y una necesidad para las personas con parálisis. Muchos son los avances que se están produciendo en los últimos tiempos en este campo, de hecho IBM predice que esto será uno de los cinco avances tecnológicos que más cambiará nuestra vida en los próximos cinco años.

El último lo publica la revista Nature  y muestra como una mujer con tetraplejia ha sido capaz de dirigir un brazo robótico para alcanzar una bebida y después tomársela sin ayuda, gracias a la electricidad producida por su cerebro mientras pensaba en como realizar la tarea. El dispositivo, denominado Sistema de Interfaz Neuronal BrainGate -puerta del cerebro en inglés- y desarrollado en EE UU, trata de poner la robótica y otras tecnología de asistencia bajo el control del cerebro.
Para poder hacer esto es necesario insertar una pequeña pastilla de silicio en el cerebro del paciente,la cual contiene un centenar de de diminutos electrodos del grosor de un pelo y capta las señales eléctricas que se producen en el cerebro cuando el enfermo piensa en una acción concreta. La información obtenida se traslada a un ordenador que lo traduce en órdenes al brazo artificial.
El siguiente vídeo describe mejor todo el proceso:



Pero el proyecto BrainGate no es nuevo,de hecho en otra entrada de este blog ya se hacía una "introducción"a la interacción cerebral. La idea original tuvo un primer éxito cuando en 1998 unas personas paralizadas movieron el cursor de un ordenador con el cerebro. La gran diferencia es que ahora se trata de movimientos tridimensionales frente al de arriba-abajo, izquierda-derecha con el que se empezó.En este vídeo podemos ver como funcionaban estos sistemas "primitivos".

El sistema tiene gran número de aplicaciones,pero desde mi punto de vista y como también admiten los autores, esta no es la solución definitiva ya que presenta bastantes inconvenientes.Por ejemplo es necesario estar conectado a un aparato para realizar pequeños movimientos.Así mismo su elevado precio y el gran entrenamiento que los enfermos tienen que recibir para que el ordenador les entienda no ayudan en el objetivo. Yo pienso que el futuro está en llevar esta información cerebral decodificada al propio miembro paralizado del paciente, ya que en la mayoría de los casos es esta conexión la que falla.

Una de las cosas que me llamó la atención de este proyecto BrainGate fue su origen, ¿adivinan cuál fue?... exacto,con fines militares. Cuando el Gobierno de Estados Unidos vio en este tipo de desarrollos una manera de ayudar a los soldados que volvían mutilados del frente.

miércoles, 16 de mayo de 2012

TOUCHÉ: INTERACCIÓN TÁCTIL DE DISNEY

Leyendo el título de este post, posiblemente te preguntes si realmente este sistema de interacción táctil está siendo realizado por la compañía Walt Disney,la compañía del ratón Mickey y que esa que pensabas "solo" se dedicaba a hacer películas, tener cadenas de televisión y montar parques de atracciones. Pues sí,esta compañía -a través de su área de investigación denominado Disney Research- acaba de presentar una nueva tecnología que puede revolucionar el mundo de la interacción táctil.

Este sistema, bautizado como Touché, se basa en una idea ya explotada en la interacción táctil de smartphones y tablets: una señal eléctrica cambia al ser tocada por un material conductivo. Pero lo que lo hace revolucionario son dos grandes novedades:


      1) No solo detecta dos posibles señales (pulsado y no pulsado) como los anteriores sistemas, sino que ahora debido a que detecta todo un rango de frecuencias, puede detectar varias acciones que se pueden realizar sobre objetos: tocar con un dedo,con tres dedos,no tocar,pellizcar,agarrar...haciendo que la información proporcionada al sistema con un simple gesto sea muy superior a la que se proporcionaba anteriormente.



       2) No solo la pantalla del dispositivo funciona como receptor de interacciones,sino que cualquier superficie,cualquier objeto podrá reconocer nuestros gestos táctiles, ya sea una mesa, un sillón, agua o incluso el propio cuerpo humano. Simplemente habrá que colocar un cable al objeto para que adquiera propiedades táctiles.


Las posibilidades que este sistema abre son muy amplias,por ejemplo será posible que en cuanto nos sentemos en el sofá se encienda la televisión, pero si nos tumbamos para relajarnos lo detecte y baje el volumen y reduzca la iluminación de la habitación.
También será posible que cuando salgamos a hacer hacer footing por la calle, cambiemos el volumen de nuestro reproductor o pasemos la canción que estamos escuchando sin más que deslizar los dedos colocar el índice sobre la palma.

Esto son solo dos ejemplos de las infinitud de aplicaciones que este sistema puede llegar a tener y que puede representar el futuro de las interfaces táctiles.

El siguiente vídeo, en inglés, explica exhaustivamente el sistema y sus posibilidades.








martes, 8 de mayo de 2012

GALAXY S III: "TE VE, TE ESCUCHA, TE ENTIENDE".


No cabe duda que el  mayor enfrentamiento tecnológico actual está en el mundo de los smartphones y lleva dos nombres propios: Apple  y Samsung. Para algunos Samsung ha superado a la compañía de la manzana, mientras que otros todavía dan el primer puesto a Apple. Los últimos movimientos de ambas decidirán: Si bien se espera que el iPhone5 sea presentado en junio por la gran presión de la competencia, Samsung presentó el pasado 3 de Mayo en Lonres el que será buque insignia de la compañía: el Galaxy S III.


Aunque estamos ante el que casi todos consideran es el mejor smpartphone del mercado -a la espera del iPhone5-, durante su presentación el presidente de la división IT y móviles de Samsung, JK Shin, ha puesto la máxima atención, más allá de sus características técnicas en la mejora en la experiencia de interacción entre el dispositivo y el usuario "Te ve, te escucha y te siente " ha afirmado.

TE VE: Su sistema SmartStay amplia las opciones de la cámara delantera: si bien antes se usaba únicamente para conferencias y autorretratos, este nuevo sistema de control con la mirada mediante el seguimiento de los ojos permitirá , por ejemplo, pasar de página en un libro electrónico milésimas después de que tus ojos hayan terminado de leerla, que la mirada haga de barra de desplazamiento en las páginas de Internet o que la pantalla gire automáticamente. También, como se puede comprobar en el siguiente vídeo, hará que el teléfono se bloquee cuando tu mirada se ha apartado durante un tiempo de él.


TE ESCUCHA: La aplicación S Voice te escucha y te responde,permitiendo interactuar con el dispositivo mediante la voz: buscar información, reproducir canciones, subir y bajar el volumen,enviar sms y e-mails,  hacer fotos...

TE SIENTE: es capaz de reconocer tus movimientos y responder a ellos: por ejemplo,si estas enviando un mensaje a una persona y en ese momento decides llamarle, basta con llevarte el teléfono a la oreja para establecer la llamada.




Desde mi punto de vista el avance en los smartphones se está conduciendo más a mejorar y facilitar la interacción que ha mejorar el hardware (que también se está haciendo). Esto, unido al gran negocio que este mundo supone, llevará y está llevando a que los avances en la interacción hombre-máquina mejoren de manera vertiginosa. 





domingo, 6 de mayo de 2012

TECNOLOGÍA HÁPTICA PARA EVITAR ACCIDENTES: EL VOLANTE VIBRADOR

¿Nunca te has planteado que el simple hecho de mirar la pantalla del GPS para orientarte durante la conducción, hace que tu atención se vaya de donde realmente tenía que estar,en la carretera?
No solo nos distrae configurar el GPS mientras la conducción -lo cual está considerado por la  Ley de Tráfico como una falta grave,con la consiguiente retirada de tres puntos del carné y 200€ de multa-, sino que el hecho de ubicarnos en un lugar desconocido puede ser complicado, incluso con la ayuda de un GPS, lo que supone tener que estar constantemente mirando la pequeña pantalla. Así mismo los comandos de navegación hablados por si solos pueden ser confusos -"¿Me ha dicho que gire en esta calle o en la otra?" "¡Pero si esta calle es dirección prohibida!"-

Investigadores de la Universidad de Pennsylvaniam, en Estados Unidos, se plantearon este problema y han ideado un prototipo que lo podría evitar. Se trata de una novedosa forma de interacción entre el coche y el hombre, que hace uso de la tecnología háptica para indicar al conductor mediante el volante el momento de cambiar el sentido de la marcha.


El volante, que va sincronizado con un GPS integrado, consta de 20 pequeños motores que envían vibraciones a las manos del conductor. Estas vibraciones se mueven en sentido horario cuando hay que girar a la derecha, y en sentido anti-horario para virar a la izquierda; además aumentan su intensidad cuanto más cerca nos encontremos de la intersección.

En lugar de escuchar una voz y tener que procesar instrucciones verbales, “los conductores obtienen este sentido intuitivo que indica hacia qué lado girar”,afirma uno de los investigadores que trabajó en el proyecto. “Los usuarios en realidad no tienen que pensar en ello, simplemente lo entienden”.

Este dispositivo, aunque útil para todos los conductores, está especialmente pensado para conductores de avanzada edad ,para quienes los GPS calle por calle pueden resultar confusos.

Desde mi punto de vista este dispositivo tiene un gran futuro ya que evitará accidentes y confusiones, facilitando así la labor del conductor; aspectos en los que los fabricantes de automóviles están profundamente interesados. Además esta forma de interacción háptica resultará muy clara y sencilla. Seguramente también habrá conductores que lo rechacen afirmando que les gusta "sentir la conducción", como ocurre con todos los sistemas que facilitan el pilotaje.
También es cierto que llevar constantemente activado este dispositivo puede resultar cansado y monótono y por tanto creo que  será posible activarlo solo en aquellos lugares dónde realmente resulte útil, sobre todo en cuidad.



martes, 24 de abril de 2012

EL TELÉFONO INVISIBLE

Leyendo la última entrada de un blog de realidad aumentada que trata sobre aplicaciones para móviles, me llamó la atención una que se llama Transparent Screen , la cual  "permite al usuario poder ver a través de la pantalla de su móvil cuando va caminando mientras usa el teléfono móvil."
Esto nos lleva a plantearnos si es posible un teléfono invisible o transparente y el gran avance en la interacción que esto ofrecería.
En este post trataremos el primer tema,dejando el teléfono transparente para futuras entradas.

Pues sí, el teléfono invisible es posible y de hecho investigadores alemanes han presentado un prototipo para iPhone que permite controlar el teléfono desde la palma de la mano, sin tenerlo físicamente encima.



Funciona mediante cámaras de profundidad,similares a las de muchos videojuegos, que detectan el movimiento sobre la palma de la mano y la envían al móvil mediante Wifi. 
Aunque por ahora estas cámaras son muy aparatosas (no olvidemos que es un prototipo), la idea es que en un  futuro sean inapreciables, pudiéndolas camuflar,por ejemplo, en el botón de una camisa. Esto permitiría que nadie se diera cuenta de que alguien lleva un "teléfono imaginario".
El siguiente vídeo muestra un ejemplo de su uso:


Para poder usar este dispositivo, aparte de poseer un iPhonedeberás saber dónde está cada botón para rechazar la llamada o activar el altavoz. Según un estudio paralelo a esta investigación, el 68% de los usuarios de smartphones saben encontrar las aplicaciones sin tener el móvil en la mano.

Sus creadores ven un gran futuro a este prototipo, y aseguran que “se usarán como un acceso directo para no tener que sacar el teléfono del bolsillo. Pero cuando adquieran más experiencia, llegará un punto en que dejen el aparato en casa y solo usen los imaginarios”.


Con este dispositivo se ve una clara progresión y avance en la interacción hombre-móvil: los primeros dispositivos presentaban un teclado, el siguiente paso fueron móviles que necesitaban un lápiz para su funcionamiento y actualmente los smartphones solamente requieren de un toque táctil para su ejecución. Este prototipo no requerirá utilizar nada,solo iniciar su interacción mediante tus dedos.



Desde mi punto de vista,este "teléfono invisible" no tiene muchas aplicaciones, de ser la de poder rechazar una llamada sin necesidad de sacarlo del bolsillo, y la hipótesis de que con el paso del tiempo será posible dejar el aparato en casa, me parece prácticamente imposible,ya que ¿cómo contestar a una llamada si no tienes altavoz y micrófono?









miércoles, 18 de abril de 2012

TECNOLOGÍA AL SERVICIO DE LOS JUEGOS PARALÍMPICOS

Todos sabemos que este verano se celebran en Londres unos Juegos Olímpicos,entre otras cosas por el famoso Madrid2012 y por el gran tirón deportivo,económico y mediático que tienen. Pero no todos que pocas semanas después se celebra otra gran cita deportiva,los Juegos Paralímpicos.
En ellos participan deportistas con discapacidades físicas, mentales y sensoriales, como discapacidades motoras, amputaciones, ceguera y parálisis cerebral .Debido al gran número de discapacidades y la gran diferencia entre ellas, es prácticamente imposible que todos los atletas  compitan en igualdad de condiciones.
Con este objetivo,nivelar la competición para los atletas con distintos tipos de discapacidades, ha surgido en la capital británica una exhibición de prototipos que muestra las ideas de jóvenes diseñadores.Estos empelan interacción cerebral,tecnología háptica y otros muchos tipos de interacción hombre-máquina para revolucionar el rendimiento de los atletas discapacitados.

Por ejemplo, se presento un prototipo de nombre brainsled (trineo cerebral) que permite, gracias a la interacción cerebral y a un casco, que los deportistas dirijan un trineo utilizando el pensamiento,poniendo así a prueba sus reflejos y el poder de concentración en la competición.

Otro ejemplo es el Headshot,una innovadora forma de practicar tiro al plato; un equipo colocado en nuestra cabeza controla un brazo y este a su vez una escopeta dependiendo de los movimientos y de donde mira al persona.Para disparar simplemente hay que soplar.Esto se puede ver en la siguiente imagen:




La innovación ganadora de los 8.000 dólares fue un dispositivo con tecnología háptica (que conjunta experiencias visuales y auditivas) se coloca en la muñeca y en el codo, y utiliza sonidos y vibraciones para notificar al usuario cuando realiza un movimiento específico correctamente,por ejemplo una brazada correcta en natación,pero puede tener múltiples aplicaciones.

Esperemos que todos estos  dispositivos sirvan para mejorar la competición y hacerla mas justa, y no ocurra como en el famoso caso de Oscar Pistorius, atleta sudafricano que tiene las dos piernas amputadas y corre gracias a dos prótesis de fibra de carbono que, según muchos expertos, le dan ventaja sobre el resto de participantes.

Por otra parte,con esta noticia volvemos a ver algo que habíamos visto en la mayoría de las entradas anteriores de este blog, la gran aplicación que la interacción hombre-máquina puede llegar a tener para personas discapacitadas.


martes, 3 de abril de 2012

INTERACCIÓN CON SENTIMIENTO



A finales del 2011,el científico japonés Hiroshi Ishiguro, experto en androides, afirmó que llegaría el día en que las persones se enamorarán de los androides,y que esto ocurriría cuando fuesen capaces de reproducir las emociones que sentimos las personas de carne y hueso.


Muchos pensábamos, al oír este tipo de declaraciones, que eran cosas que solo pasaban en la ciencia ficción y que vídeos como este, solamente eran humor y no llegarían a tener nunca nada de real:

Pues bien, parece que estábamos equivocados y que de nuevo la realidad supera a la ciencia ficción porque  que esto ya es posible. NO que una persona se enamore de un robot (o al menos no hay datos realistas de ello), pero sí que los robots puedan sentir y anticiparse a las emociones humanas.

O al menos así lo afirma la revista Apliedd Soft Computing, que ha publicado los estudios de un catedrático de la universidad Pablo de Olaviede(Sevilla), en los cuales se presenta el diseño de un sistema de inteligencia artificial capaz de dotar a las máquinas de emociones sintéticas.
Este avance podrá mejorar enormemente la interacción hombre-máquina ya que podrá permitir a las personas interactuar con las máquinas de forma natural,y permitirá incorporar nuevas funcionalidades hasta ahora impensables para mejorar la realización de sus actividades.

¿Quiere decir esto que tendremos que empezar a acariciar nuestro ordenador?
Parece que por el momento no, ya que los robots construidos hasta ahora experimentan sensaciones similares al hambre cuando están bajos de energía o alegría cuando realizan correctamente su misión,pero es posible que el trato cercano y "mimarlos" mejore la interacción entre ambos.

Esto podrá mejorar enormemente el defecto que más habitualmente echamos en cara a los ordenadores:el hecho de ser máquinas tontas. Ahora podrán responder como si de una persona se tratara y nos podrá tranquilizar al vernos nerviosos porque el ordenador va más lento o un aparato doméstico no funciona.
Así mismo podrá interpretar nuestro estado de ánimo y nos tratará de forma distinta dependiendo de él, ofreciéndonos, por ejemplo, un tipo de música u otro.

El siguiente vídeo muestra la noticia,aunque el robot que presenta ha sido desarrollado por científicos polacos.







domingo, 1 de abril de 2012

SIGUIENDO LA MIRADA

       
Tobii ,empresa sueca pero con sedes en todos los países punteros en tecnología como EE.UU , Japón, China, Alemania y Noruega, es la empresa puntera en el sector de la interacción visual y el seguimiento ocular.Tanto es así que Intel ha lanzado una oferta de 21 millones de dolares para adquirir la compañía.

Esta empresa no faltó a su anual cita con el CES( Consumer Electronics Show), la mayor feria electrónica del mundo y que se celebra anualmente en Las Vegas, EE.UU (la próxima se celebrará del 8 al 11 de Enero de 2013 por si alguno está interesado en acudir).

En ella ha presentado una interfaz capaz de controlar un ordenador solo con la mirada.
Mediante un sensor colocado en la pantalla se identifican los movimientos de los ojos y se sitúa ahí  el cursor del PC. Si tu mirada se desplaza, el cursor se desplaza, pero aún es necesario el uso del ratón para hacer click.

Esta forma de interacción nace con el objetivo de facilitar la vida a las personas con dificultades de movimiento, representa un gran avance y puede ser muy útil para todo el mundo ya que ahorraría mucho tiempo y esfuerzo.
Además la actual necesidad del ratón, seguro que no tardará mucho tiempo en eliminarse y se podrá hacer click con un simple guiño o similar.

El siguiente vídeo muestra explica su funcionamiento y realiza una demo del producto:


Entre las muchas aplicaciones de esta interfaz, se puede señalar:

-Ocio.El vídeo presenta una demo con el legendario juego Asteroids,pero podrá ser usando en todos aquellos juegos, que por ejemplo pongan a prueba tus reflejos.

-En el campo de la publicidad,las empresas podrán emplearlo para monitorizar donde ponemos nuestra vista y luego colocar ahí sus carteles publicitarios.

-En el campo de la medicina,podrá ser muy útil para las personas con discapacidades motrices.

-Se podrá leer cómodamente sin necesidad de pasar de pantalla ni desplazar el scroll,solamente con el movimiento de los ojos.

-Será muy útil y eficiente para el manejo de programas de diseño como AutoCAD o Photoshop.

-Se podrá emplear para evaluar los reflejos y capacidad de reacción visual de una persona, por ejemplo en psicotécnicos para permisos de conducción.


Desde mi punto de vista esta interfaz se desarrollará rápidamente ya que tiene aplicaciones en muchos campos, entre ellos los que mas dinero mueven como los videojuegos, y la publicidad.



miércoles, 28 de marzo de 2012

INTERACCIÓN CEREBRO-MÁQUINA

¿Es posible ejecutar una acción sin más que pensar en ello?
 Muchos pensamos (pensábamos) que esto solo pasaba en las películas de ciencia ficción,pero no es así; actualmente esto es posible gracias a interfaces cerebro-ordenador que permiten generar una señal de control a partir de señales cerebrales.


Ya a finales de los ochenta,se descubrió la relación que existía entre le movimiento de los brazos de un mono y su actividad cerebral;algunos años después se consiguió que una rata siguiera la dirección que un ordenador le mandaba,es decir gracias a la interacción con su cerebro se consiguió una "rata teledirigida"

 Estos fuero los inicios de una fuerte investigación,de hecho la empresa IBM predice en the Next 5 in 5 que el avance en esta tecnología será una de las 5 cosas que cambiará nuestra forma de vivir, trabaja y jugar en los 5 próximos años.

Estos sistemas de interface cerebro-máquina registran las señales que el sistema nervioso envía,las decodifica y las traduce a órdenes que la máquina pueda interpretar.
El objetivo principal de esta tecnología es identificar e interpretar las señales que emite el cerebro de una persona que perdió la movilidad y enviarlas a prótesis robóticas que obedezcan las órdenes como si fuera el miembro en estado óptimo.
Así mismo, personas con problemas de comunicación,podrán comunicarse mediante dispositivos que interpreten lo que quieren transmitir.

La universidad de Guadalajara ha presentado un sistema capaz de controlar robots con el cerebro;este dispositivo permite manipular el robot solo pensando los comandos gracias a una diadema colocada en la cabeza del usuario, que obtiene las señales cerebrales y las envía mediante Bluetooth al dispositivo de control. 
Por otra parte,científicos del Instituto Tecnológico de Tokio han conseguido que una persona mueva objetos con la mente gracias a un chip implantando en su cabeza.Según afirman, gracias a este chip, la persona podrá llenar un vaso de agua con una mano robótica o encender y apagar la televisión.

Aunque esta tecnología nació con el objetivo de ayudar a los discapacitados,se está empezando a expandir a otros sectores,principalmente al de los videojuegos como ocurre con la mayoría de las innovaciones tecnológicas, permitiendo así una mayor financiación, investigación y progreso, convirtiéndola en una tecnología en auge.

Sin duda, esta tecnología plantea un gran reto científico, ingenieril y ético.¿Hasta que punto estamos dispuestos a llegar en la decodificación de nuestros pensamientos?¿Como podría ser utilizada esta información,por ejemplo en un interrogatorio?
Y volviendo al tema de inicio, ¿será posible, sin ciencia ficción, sino gracias a estos sistemas,que una persona se mueva,se comunique, trabaje y realice la  mayor partes de sus actividades cotidianas sin mover un músculo y únicamente pensando en ellas? Me imagino a una persona sentada en un banco de una plaza,que aparentemente está dormida, pero realmente está pensando y por consiguiente haciendo miles de cosas,y no se si quiero verlo,principalmente porque ya sabemos que la mayor parte de los inventos y descubrimientos acaban siendo aplicados en temas militares y terroristas.







domingo, 11 de marzo de 2012

TECNOLOGÍA HÁPTICA

Como muchos sabréis, el pasado 7 de Marzo Apple presentó su nuevo iPad,que finalmente no se llamará iPad3.
 Lo que más me llamó la atención de este evento, a parte del habitual protocolo mediático que Apple nos brinda cada vez que presenta un nuevo dispositivo, fue la opinión que de esta nueva tableta tiene la vicepresidenta de investigación de Gartner (empresa consultora y de investigación de las nuevas tecnologías).
Según ella, las ventas del iPad, incluyendo la anterior versión, podrían llegar a duplicar las del año anterior; pese a que la nueva versión a decepcionado a muchos en sus prestaciones.
Al hilo de esto,señala que echa en falta una mayor apuesta por la tecnología háptica que hubiera permitido al usuario mejorar la experiencia de interactuar mediante el sentido del tacto con el mundo virtual.


Al leer esta opinión,me puse a buscar información sobre esta tecnología y hasta donde podía llegar su interacción con el usuario.
Háptico tiene que ver con transmitir sensaciones a los dedos, y por tanto la tecnología háptica trata de que el usuario reciba información a través del tacto de un objeto(forma,relieve...);esta tecnología esta dando lugar a  grandes avances en el campo de la realidad aumentada.


La empresa Senseg ha desarrollado una tecnología háptica (destacada por la revista Time como una de las 50 mejores innovaciones de los últimos años) capaz de permitir al usuario no solo  tocar las imágenes de la pantalla, sino también sentirlas, simulando texturas desde áspero o suave hasta seco o mojado.
Para ello no es necesario llegar a tocar la pantalla, simplemente se generan campos eléctricos que estimula nuestros dedos creando la sensación de estar en contacto con las diferentes texturas.

Poca antes de la presentación del nuevo iPad antes mencionada, en muchos portales se anticipaba que presentaría esta tecnología ,aunque finalmente, y para decepción de muchos, no fue así.

Gracias a esta tecnología,científicos suizos han desarrollado un método capaz de tele transportar de forma virtual y en tiempo real objetos reales a través del ciberespacio.Este método es capaz de crear una representación virtual de un objeto real y transmitirla a alguien situado en otro lugar, quien podrá tocarlo y manipularlo mediante unas gafas especiales y una interfaz háptica. 
Por otro lado,científicos alemanes han hecho posible que,mediante unas gafas de realidad virtual, se pueda sentir los movimientos de una pareja de baile generada por ordenador.

Desde mi punto de vista esta tecnología tendrá un gran éxito en el mundo de los vídeojuegos, donde será posible, por ejemplo, que te mojas cuando pasas con tu ciber moto por encima de un charco o incluso sentir la textura de la empuñadura de una raqueta de tenis sin estar en contacto con ella.
Además, dado la gran cantidad de dinero que se mueve en este sector,será posible una investigación muy avanzada.

Esta tecnología puede llegar a tener gran importancia en el mundo de la telemedicina, permitiendo a los médicos tratar a pacientes a distancia; o más en la vida cotidiana, haciendo posible que toquemos el  tipo de tela de la prenda que estamos comprando por Internet.


¿Cuál es el límite de este tipo de interacción hombre-máquina?¿Realmente es una de las mejores innovaciones de los últimos años?
Para responder a estas preguntas tendremos que esperar un tiempo para que esta tecnología alcance su máximo desarrollo,tal vez no mucho...



domingo, 4 de marzo de 2012

EMPECEMOS

Antes de centrar el blog en los avances de la interacción hombre-máquina, voy a dedicar mi primer post a realizar una breve introducción al tema.

Pintura en la tumba de Sennedyem, ca. 1200 a. C
Desde el origen de los tiempos el ser humano necesita interaccionar,relacionarse con todo lo que le rodea; así por ejemplo, al aparecer la agricultura y la ganadería (hacia el 8500 a.C.) el hombre necesitó interaccionar con el animal para poder cultivar sus campos.
De esta forma, según el hombre evoluciona,  necesita interaccionar con todo lo nuevo que surge para poder utilizarlo y sacar de ello el máximo provecho.

Esto  mismo ocurrió al surgir los ordenadores: se necesitó interfaces que hicieran posible en intercambio de información entre el hombre y la máquina de manera eficiente (minimizando los errores y haciendo que su uso sea sencillo e intuitivo); esta labor la desempeñan los dispositivos de entrada/salida: ratón, teclado, altavoces...

El enorme auge vivido en las últimas décadas por los dispositivos electrónicos a hecho que estas interfaces evolucionen a un ritmo vertiginoso y que lleguen a ser usados por todos los públicos por lo que han de ser sencillas e intuitivas. Las ultimas tendencias apuntan a una comunicación de manera táctil,con el movimiento de las manos,gestos...  para permitir una interacción más fácil y cómoda. El siguiente vídeo muestra un ejemplo de ello: