Principal Tecnologia Un llenguatge corporal deficient durant una presentació? Aquesta aplicació us ajudarà

Un llenguatge corporal deficient durant una presentació? Aquesta aplicació us ajudarà

El Vostre Horòscop Per Demà

Fa uns quants anys que vaig estar rígidament a l’escenari en una conferència d’escriptura. Amb més de 800 persones assistents, i la meva pròpia comprensió de com parlar amb un grup gran una mica incomplet, vaig fer clic a través d'algunes diapositives i vaig fer alguns comentaris que probablement no sonaven massa profunds.

Després de la meva xerrada, vaig recollir algunes targetes de comentaris. (Com he dit, abans de Twitter.) Un tema que semblava sortir massa sovint: que no em movia prou.

Jo no era exactament Steve Jobs en el seu moment àlgid, però potser una nova aplicació –que va debutar en una conferència tecnològica durant el cap de setmana– m’hauria ajudat.

Vocalytics utilitza l'aprenentatge automàtic per analitzar qualsevol vídeo existent . Es pot saber quan es fa una 'actitud de poder' o un gest amb un èmfasi agradable. Si es queda immòbil tot el temps, ho sabrà. L’aplicació pot llegir els gestos de les mans i la postura corporal per ara, però en el futur, l’equip de desenvolupament diu que podria expandir-se a la lectura del moviment dels ulls i de les expressions facials.

Aquest tipus d’aprenentatge automàtic no és nou. Microsoft ha ofert llibreries amb algoritmes d’aprenentatge automàtic que analitzen els moviments corporals durant diversos anys, i l’equip de Vocalytics utilitza part d’aquest codi. El que és nou és la idea d’analitzar el llenguatge corporal d’una manera que sigui útil per a algú que potser no sap què fer. Com et dirà qualsevol expert en intel·ligència emocional, la gent veu les teves expressions, gestos i moviments gairebé tant com escolta el que dius.

quants anys té Brittany Lopez

No es pot cridar l’atenció d’una multitud si es queda inactiu. En una altra xerrada recentment –una que no anava exactament a la piscina–, vaig decidir moure’m molt més davant d’un grup de 50 persones aproximadament. Vaig intentar fer gestos i mostrar una demostració en un ordinador diverses vegades, per trencar el tedi de quedar-me allà i parlar. (La veritat és que sóc un escriptor millor que un orador.)

D’aquí poc temps, veurem més i més aplicacions impulsades per IA que poden analitzar des de les nostres inflexions de veu fins al llenguatge corporal durant una reunió. Als nostres cotxes, un robot sabrà com conduïm i, després d’arribar a casa, ens farà suggeriments sobre com millorar. Fins i tot utilitzarem la IA per llegir els nostres articles i fer correccions que millorin la llegibilitat i la comprensió.

I aquests motors d’IA cometran errors. Pel que entenc sobre com entrenar persones en parlar en públic, no es tracta de moure una mica les mans. És probable que un robot no sàpiga quins gestos proporcionen un major impacte per a un públic determinat durant un temps. Hi ha tantes variables, com ara el tema, el nivell d’expertesa de la multitud i fins i tot factors com l’hora del dia. (La meva xerrada recent amb estudiants universitaris es va produir a primera hora del matí. Es podria dir que estava condemnada al fracàs des del principi. La meva xerrada de conferència va ser just després de dinar. Tothom hauria d'haver estat indicat).

Per descomptat, fins i tot si els robots d’IA no saben del tot donar-nos consells perfectes, cada consell ajuda una mica. M'agrada el que fa Vocalytics i el seu funcionament.

M’agradaria que hagués estat disponible des de quan.