Ciberseguridad | Noticias | 02 DIC 2016

Un robot podría detectar los malos comportamientos de políticos y directivos

El columnista Rob Enderle escribe como un asistente de robot socialmente consciente, o SARA, diseñado para leer y aprender de la conducta humana podría ser una ayuda masiva para que las empresas y los gobiernos tengan más éxito.
robot r2
Rob Enderle

No es difícil pensar que el sistema político está pasando por un mal momento en gran parte del mundo. En Estados Unidos, en particular, los índices de aprobación que rodean al gobierno tienden a ser no sólo bajos, sino que la tendencia sigue a la baja y las últimas elecciones parecen más una revolución que una transición de poder pacífica. Ninguna de las partes parece ser capaz de mantener a sus propios miembros felices y, a menudo parece más centrado en las disputas con otros políticos que en hacer un progreso real y significativo.

Por desgracia, he visto que este mismo comportamiento se repite en las empresas en la forma de actuar de los ejecutivos. 

Aunque este comportamiento egoísta es común, no es universal. Hay quienes realmente se preocupan más por conseguir el progreso de la compañía que de hacer méricos personales o conseguir ascensos. Pero muchas veces son subestimados y manejados por los que tienen mejores habilidades políticas.¿Qué pasaría si tuviéramos un sistema que realmente comprendiera el comportamiento y pudiera distinguir a personas cuyas prioridades son perjudiciales para los objetivos de la empresa, ya sea para la modificación del comportamiento o para no contar con ellas? ¿No haría que tanto la firma tuvera más éxito y se convirtiera en un mejor lugar para trabajar? Por supuesto, hay un poco de 'big brother' electrónico en esto, pero ya que utilizamos la tecnología para mitigar otros tipos de amenazas de manera invasiva ¿por qué no centrarnos en el mal comportamiento humano como un problema central que se puede resolver?

SARA el robot social
Al parecer, utilizando el aprendizaje en profundidad de NVIDIA y la tecnología de inteligencia artificial, Carnegie Mellon University y ArticuLab han creado SARA (Socially Aware Robot Assistant), que está diseñado para leer y aprender de la conducta humana. Capaz de ir más allá de la palabra hablada y mirar el comportamiento físico, el tono y la estructura de la oración para determinar el verdadero significado detrás de las palabras y aprender de la interacción, SARA podría cambiar muchas cosas de las encuestas, limitada únicamente por el tamaño y el alcance del sistema.

Veo aplicaciones que van desde la seguridad (identificando a las personas que pretenden dañar a la empresa), militares (que identifican a los que pueden llevar armas ocultas o explosivos), las ventas (segmentación en tiempo real de lo qye saben o quieren comprar o simplemente están pasando el tiempo). Pero creo que este sistema también podría identificar y ayudar a corregir a los malos ejecutivos y políticos.

Mejores ejecutivos y políticos
En alguna ocasión habra visto a ejecutivos que se atribuyen los éxitos de otros y son muy asignando a otros la culpa de las cosas que si hicieron. Pienso en ellos como un virus hostil que es casi imposible de eliminar, pero mortal para la corporación. Si hubiera un sistema capaz de analizar su comportamiento, probablemente podría, con el tiempo, diferenciar entre aquellos que sinceramente quieren ayudar a hacer progresos y aquellos que dicen las palabras correctas pero planean apuñalarte en la espalda a la primera oportunidad.

En resumen, podría resaltar la diferencia entre la lealtad real y la falsa lealtad de alguien que planea traicionalte. Una vez que sepa esto podrá tratar más eficazmente con esas personasn y conseguir mantener a las personas de mayor confianza.

Carly Fiorina, expresidenta de HP, le ocurrio esto dos veces durante su mandato como CEO, el segundo y más perjudicial contribuyó a su fin en la compañía. Ray Noorda de Novell tenía a su sucesor elegido a dedo que le estaba traicionando.

Si bien esto podría ser muy poderoso en las empresas para identificar personas, incluso a aquellos que están malversando a cualquier nivel, podría ser muchoaún  más poderoso en la política. Piense en un servicio de noticias que pudiera desplegar este sistema imparcial durante un debate y, en tiempo real, proporcionar dos indicadores uno sobre los hechos que demuestran la exactitud y uno que demuestra la verdad. Combinado ambos diferenciaría aquellos que estaban mal informados sobre un tema, y diciendo la verdad de aquellos que sabían la respuesta correcta, pero estaban faciliando otra información para promoverse personalmente o a su partido.

Entonces los votantes podían decidir si querían un político veraz o uno deshonesto bien informado. Por supuesto que mi preferencia sería un político bien informado y, creo, este tipo de aplicación sería así. ¿Eso no cambiaría el mundo?

Un ordenador imparcial que puede leer en las personas podría ser una ayuda masiva en conseguir compañías y gobiernos más acertados y responsables. 

Este tipo de cosas podría abrir un área completamente nueva de analítica que mira a un conjunto mucho más amplio de datos para poder decir no sólo lo que realmente está sucediendo en tiempo real, sino para proyectar mejor el futuro, ya sea de elección o de resultados de ventas.

 

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información