La proporción de jubilados con respecto a trabajadores, está en aumento en el mundo desarrollado. Uno de los desafíos más grandes que enfrentan a los planificadores de salud pública, en las décadas venideras, es cómo preocuparse de cantidades cada vez más grandes de ancianos sin llevar el banco a la quiebra. Hace su ingreso el robot. La primera prioridad de estos robots será determinar las necesidades de los humanos a su cargo: ¿qué deben hacer para mantenerlos saludables y alegrar sus días? Para estas tareas esenciales, deberán contar con sensores que los ayuden a determinar las acciones a seguir.
Los sensores conectan a los robots con el mundo
OMRON Corporation ha desarrollado el sistema de tecnología de sensores de visión OKA, el que permite evaluar los gestos y la dirección de la mirada de una persona. Un paquete de hardware y software también puede determinar el estado mental de una persona, ya sea que esté enojada, feliz o triste.
También se prevé la posibilidad de mejorar los detectores táctiles capacitivos, para detectar cambios en la piel que permitan a un robot inferir el estado emocional y psicológico mediante el tacto. Otros sensores en desarrollo no solo medirán la presión de agarre de un anciano, sino también la forma en que cambia con el tiempo. La información acerca de los cambios en la presión arterial y frecuencia cardíaca en dispositivos desgastables también ayudarán al robot a evaluar a su carga humana.
Aldebaran, la compañía que construyó a Romeo, ha colaborado con Softbank para construir otro robot lector de emociones, Pepper. Al igual que Romeo, Pepper se basa mucho en cámaras y sensores de profundidad para leer el lenguaje corporal y las expresiones faciales. Ambas manos de Pepper contienen un sensor táctil y su torso posee tres. Se espera que las señales visuales, de distancia y de tacto permitan que la IA dentro de la unidad procese información significativa sobre el estado emocional de un humano.
Qué depara el futuro
En el corto plazo, el humano que interactúa con el robot podría ser quien mejor use el sensor. Los investigadores han desarrollado sensores muy delgados basados en nanotubos de carbono que son extremadamente sensibles incluso al más mínimo movimiento de la piel. Entonces, el software puede decodificar la totalidad del movimiento facial para determinar si se expresa felicidad, tristeza o incluso dolor, y el robot, a través de su IA, puede entonces determinar una respuesta apropiada. Al usar estos métodos, el robot puede manejar mucho mejor el estado emocional de su carga de lo que sería posible con las señales derivadas de la cámara.
Actualmente, la investigación se centra en sensores que puedan detectar olores. Dado que la primera tarea que los especialistas en robótica visualizan para sus inventos es el cuidado de los ancianos y débiles, esta puede ser una herramienta importante al decidir cuándo es momento de recibir una intervención de especialistas médicos humanos.
Así, aunque en un futuro cercano los robots no reemplazarán a los cuidadores humanos y mucho menos a las enfermeras profesionales, las bases ya se han sentado. Y basándose en las tendencias demográficas actuales, no hay mucho tiempo que perder.