«Отслеживание эмоций — искусственный интеллект на работе: сотрудники боятся, что за ними наблюдают и их неправильно поймут».

grazynarebeca.blogspot.com 6 месяцы назад

Słyszeliśmy ostrzeżenia Yuvala Noaha Harariego, iż jeżeli nie wymyślimy, jak regulować sztuczną inteligencję (AI), wkrótce nastąpi zhakowanie ludzkich mózgów ” – stwierdzenie, które prawdopodobnie odzwierciedla najgorsze obawy ludzkości dotyczące sztucznej inteligencji. Może to mieć szczególne znaczenie, gdy usłyszysz od doradcy Schwaba, Harariego, iż „zhakowanie człowieka oznacza poznanie go lepiej niż on sam siebie zna”, co może umożliwić posiadaczom technologii coraz większe manipulowanie nami.

Możemy wierzyć, iż to skrajne zagrożenie dla naszej prywatności pojawi się kiedyś w przyszłości, ale włamanie, które opisuje Harari, jest bardziej przysłowiowe niż dosłowne i ma już miejsce w środowiskach takich jak Facebook i YouTube , gdzie jesteśmy zmuszani do przeglądania treści, które algorytmy uznały za interesujące dla nas. Obecnie wydaje się, iż wielu stopniowo znieczuliło się na „hakowanie” i manipulację, pozwalając na jego rozwój bez zbytniego protestu.

Ale jak byś się czuł, gdyby Twoje miejsce pracy śledziło Twoje samopoczucie? – pyta Nazanin Andalibi, adiunkt ds. informacji na Uniwersytecie Michigan. a w poniższym artykule omówiono sztuczną inteligencję emocji, która jest już wykorzystywana w miejscu pracy.

Śledzenie emocji – sztuczna inteligencja w pracy: pracownicy boją się, iż będą obserwowani i źle zrozumiani.

Autor: Nazanin Andalibi

Sztuczna inteligencja emocji wykorzystuje sygnały biologiczne, takie jak ton głosu, wyraz twarzy i dane z urządzeń przenośnych, a także tekst oraz sposób, w jaki ludzie korzystają z komputerów, obiecując wykryć i przewidzieć, jak ktoś się czuje. Jest używany zarówno w kontekście przyziemnym, takim jak rozrywka, jak i w kontekście wysokich stawek, takich jak miejsce pracy, zatrudnienie i opieka zdrowotna.

Szeroka gama branż korzysta już ze sztucznej inteligencji opartej na emocjach , w tym call center, finanse, bankowość, pielęgniarstwo i opieka. Ponad 50% dużych pracodawców w USA korzysta ze sztucznej inteligencji opartej na emocjach, aby wnioskować o stanach wewnętrznych pracowników, co jest praktyką, która nasiliła się podczas pandemii Covid-19 . Na przykład centra obsługi telefonicznej monitorują, co mówią operatorzy i ton ich głosu.

Uczeni wyrazili obawy co do naukowej ważności sztucznej inteligencji związanej z emocjami i jej zależności od spornych teorii na temat emocji . Podkreślili także potencjał sztucznej inteligencji opartej na emocjach w zakresie naruszania prywatności i przejawiania uprzedzeń rasowych , płciowych i niepełnosprawnych .

Niektórzy pracodawcy wykorzystują tę technologię tak, jakby była bezbłędna , podczas gdy niektórzy uczeni starają się zmniejszyć jej stronniczość i poprawić jej wiarygodność , całkowicie ją zdyskredytować lub sugerują zakazanie sztucznej inteligencji opartej na emocjach , przynajmniej do czasu, gdy będzie wiadomo więcej na temat jej konsekwencji.

Badam społeczne implikacje technologii . Uważam, iż niezwykle istotne jest zbadanie konsekwencji sztucznej inteligencji emocji dla osób jej podlegających, takich jak pracownicy – ​​zwłaszcza tych marginalizowanych ze względu na rasę, płeć lub status niepełnosprawności. Czy sztuczna inteligencja faktycznie potrafi czytać Twoje emocje? Nie dokładnie.

Obawy pracowników

Aby zrozumieć, dokąd zmierza wykorzystanie sztucznej inteligencji opartej na emocjach w miejscu pracy, wraz z moją koleżanką Karen Boyd postanowiliśmy zbadać koncepcje wynalazców na temat sztucznej inteligencji opartej na emocjach w miejscu pracy. Przeanalizowaliśmy zgłoszenia patentowe, w których zaproponowano technologie AI oparte na emocjach w miejscu pracy. Rzekome korzyści, o które ubiegali się zgłaszający patenty, obejmowały ocenę i wspieranie dobrostanu pracowników, zapewnienie bezpieczeństwa w miejscu pracy, zwiększenie produktywności oraz pomoc w podejmowaniu decyzji, takich jak awansowanie, zwalnianie pracowników i przydzielanie zadań.

Zastanawialiśmy się, co pracownicy myślą o tych technologiach. Czy oni również dostrzegą te korzyści? Na przykład, czy pracownicy uznaliby za korzystne, gdyby pracodawcy zapewniali im wsparcie w zakresie dobrego samopoczucia?

Moi współpracownicy Shanley Corvite , Kat Roemmich , Tillie Ilana Rosenberg i ja przeprowadziliśmy badanie częściowo reprezentatywne dla populacji USA, a częściowo obejmujące osoby kolorowe, osoby trans i niebinarne oraz osoby cierpiące na choroby psychiczne. Grupy te mogą być bardziej narażone na szkody spowodowane sztuczną inteligencją emocjonalną. W naszym badaniu wzięło udział 289 uczestników z próby reprezentatywnej i 106 uczestników z nadpróby. Odkryliśmy, iż 32% respondentów stwierdziło, iż nie doświadcza lub nie spodziewa się żadnych korzyści z używania sztucznej inteligencji opartej na emocjach, zarówno obecnych, jak i przewidywanych, w miejscu pracy.

Chociaż niektórzy pracownicy zauważyli potencjalne korzyści wynikające ze stosowania sztucznej inteligencji opartej na emocjach w miejscu pracy, takie jak zwiększone wsparcie w zakresie dobrego samopoczucia i bezpieczeństwo w miejscu pracy, odzwierciedlające korzyści deklarowane we wnioskach patentowych, wszyscy również wyrazili obawy. Obawiali się szkód dla ich dobrego samopoczucia i prywatności, szkód dla ich wyników w pracy i statusu zatrudnienia, a także uprzedzeń i piętna wobec nich w zakresie zdrowia psychicznego.

Na przykład 51% uczestników wyraziło obawy dotyczące prywatności, 36% zauważyło możliwość wyciągnięcia błędnych wniosków, które pracodawcy zaakceptowaliby za dobrą monetę, a 33% wyraziło obawę, iż wnioski generowane przez sztuczną inteligencję mogą zostać wykorzystane do podejmowania niesprawiedliwych decyzji o zatrudnieniu.

Głosy uczestników

Jedna z uczestniczek, która cierpiała na wiele schorzeń, powiedziała: „Świadomość, iż jestem poddawana analizie, jak na ironię, miałaby negatywny wpływ na moje zdrowie psychiczne”. Oznacza to, iż pomimo deklarowanych celów sztucznej inteligencji opartej na emocjach, czyli wnioskowania i poprawy dobrostanu pracowników w miejscu pracy, jej stosowanie może prowadzić do odwrotnego skutku: pogorszenia dobrostanu z powodu utraty prywatności. Rzeczywiście, inne prace moich kolegów Roemmicha, Floriana Schauba i mnie sugerują, iż utrata prywatności spowodowana emocjami przez sztuczną inteligencję może obejmować szereg szkód w prywatności , w tym psychologicznych, autonomii, ekonomicznych, w relacjach, fizycznych i dyskryminacji .

W związku z obawami, iż nadzór emocjonalny może zagrozić ich pracy, uczestnik ze zdiagnozowaną chorobą psychiczną powiedział: „Mogą zdecydować, iż nie nadaję się już do pracy i mnie zwolnić. Zdecyduj, iż nie jestem wystarczająco zdolny i nie daję podwyżki, albo pomyśl, iż nie pracuję wystarczająco dużo.

Uczestnicy badania wspomnieli również o możliwości pogłębienia się nierównowagi sił i stwierdzili, iż obawiają się dynamiki, jaką mieliby w stosunkach z pracodawcami, gdyby sztuczna inteligencja emocjonalna została zintegrowana z ich miejscem pracy, wskazując, w jaki sposób wykorzystanie sztucznej inteligencji opartej na emocjach mogłoby potencjalnie zintensyfikować już istniejące napięcia u pracodawcy- związek pracowniczy. Na przykład respondent powiedział: „Stopień kontroli, jaką pracodawcy już sprawują nad pracownikami, sugeruje, iż kontrole dotyczące sposobu wykorzystania tych informacji byłyby nieliczne. Jakakolwiek „zgoda” [ze strony] pracowników jest w tym kontekście w dużej mierze iluzoryczna”. Sztuczna inteligencja emocji to tylko jeden ze sposobów monitorowania pracowników przez firmy.

Na koniec uczestnicy zwrócili uwagę na potencjalne szkody, takie jak niedokładności techniczne sztucznej inteligencji opartej na emocjach, które mogą powodować fałszywe wrażenie na pracownikach, oraz sztuczna inteligencja oparta na emocjach powodująca i utrwalająca uprzedzenia i napiętnowanie wobec pracowników. Opisując te obawy, uczestnicy podkreślili swoją obawę przed pracodawcami polegającymi na niedokładnych i stronniczych systemach sztucznej inteligencji opartych na emocjach, szczególnie wobec osób kolorowych, kobiet i osób transpłciowych.

Na przykład jeden z uczestników powiedział: „Kto decyduje, jakie wyrazy twarzy ‚wyglądają agresywnie’ i jak można rozpoznać ludzi jako zagrożenie na podstawie samego wyrazu ich twarzy? System potrafi czytać z twarzy, to jasne, ale nie w myślach. Po prostu nie mogę sobie wyobrazić, jak mogłoby to w rzeczywistości być czymś innym niż destrukcyjnym dla mniejszości w miejscu pracy”.

Uczestnicy zauważyli, iż albo odmówiliby pracy w miejscu, w którym wykorzystuje się sztuczną inteligencję dotyczącą emocji – opcja niedostępna dla wielu – albo zaangażowaliby się w zachowania, które sprawią, iż sztuczna inteligencja emocji będzie je czytać przychylnie, aby chronić ich prywatność. Jeden z uczestników powiedział: „Wykorzystywałbym ogromną ilość energii maskującej, choćby gdy jestem sam w biurze, co spowodowałoby, iż byłbym bardzo rozproszony i nieproduktywny”, wskazując, iż wykorzystanie sztucznej inteligencji opartej na emocjach nałożyłoby na pracowników dodatkową pracę emocjonalną.

Warte szkody?

Odkrycia te wskazują, iż sztuczna inteligencja emocji zaostrza istniejące wyzwania, przed którymi stoją pracownicy w miejscu pracy, mimo iż zwolennicy twierdzą, iż sztuczna inteligencja emocji pomaga rozwiązać te problemy.

Jeśli sztuczna inteligencja oparta na emocjach rzeczywiście działa zgodnie z twierdzeniami i mierzy to, co rzekomo mierzy, a choćby jeżeli w przyszłości zostaną rozwiązane problemy związane z uprzedzeniami, pracownicy przez cały czas będą odczuwać szkody, takie jak dodatkowa praca emocjonalna i utrata prywatności.

Jeśli technologie te nie mierzą tego, co twierdzą, lub są stronnicze, ludzie są zdani na łaskę algorytmów uznawanych za ważne i niezawodne, podczas gdy tak nie jest. Pracownicy przez cały czas musieliby wkładać wysiłek, aby zmniejszyć ryzyko błędnego odczytania przez algorytm lub angażować się w okazywanie emocji, które byłyby korzystne dla algorytmu.

Tak czy inaczej, systemy te działają jak technologie panoptikonowe , powodując szkody dla prywatności i poczucie bycia obserwowanym.

Źródło: Nazanin Andalibi dla The Conversation


Przetlumaczono przez translator Google

zrodlo:https://expose-news.com/

Читать всю статью