Projekt TransFormWork 2 – labirynty sztucznej inteligencji w sferze pracy (rynek pracy, organizacja pracy, warunki pracy, …)

Image
TransFarmWork 2

Katedra Polityki Publicznej SGH rozpoczęła realizację projektu TransFormWork 2 - Project 101145650. Analizy w jego ramach dotyczą problematyki sztucznej inteligencji, w tym jej efektywnego regulowania w sferze wykonywania pracy i stosunków pracy.

Grupa osób pracujących na dokumentami

Kierownikiem projektu po stronie SGH jest prof. Andrzej Zybała z Katedry Polityki Publicznej SGH. Zespół badawczy tworzą dr Anna Janowska z Katedry Polityki Publicznej SGH, i dr Małgorzata Wrzosek z Zakładu Wspomagania i Analizy Decyzji w Instytucie Ekonometrii w Kolegium Analiz Ekonomicznych SGH. Powyższy Zakład, kierowany przez prof. B. Kamińskiego, pełni rolę partnera merytorycznego dla projektu.

Informacja o zdobyciu grantu z Komisji Europejskiej

Katedra Polityki Publicznej SGH rozpocznie w maju realizację projektu TransFormWork 2 - Project 101145650 . Analizy w jego ramach dotyczą problematyki sztucznej inteligencji, w tym jej efektywnego regulowania w sferze wykonywania pracy i stosunków pracy.

Katedra uzyskała grant z Komisji Europejskiej w ramach międzynarodowego konsorcjum (Bułgaria, Cypr, Irlandia, Włochy, Malta, Polska, Rumunia). Czas trwania 24 miesiące. 

Pełna nazwa projektu: 

Social partners together towards a better and effective regulation of Artificial Intelligence for a just transition to the work of the future - Project 101145650 .

Do zespołu badawczego należy również dr Małgorzata Wrzosek z Zakładu Wspomagania i Analizy Decyzji w Instytucie Ekonometrii w Kolegium Analiz Ekonomicznych SGH. Zakład, kierowany przez prof. B. Kamińskiego, będzie pełnił rolę partnera merytorycznego.

Cele i działania w projekcie

Badawcze będą analizować skalę wpływu AI na sposób wykonywania pracy, na rynek pracy, na stosunki pracy (m.in. dialog pracowników z pracodawcami). Zajmą się również analizą regulacji prawnych, które określają możliwości czy sposób zastosowania narzędzi AI. Przeanalizują możliwości wytworzenia efektywnej regulacji czyli takiej, która zapewni, że zastosowania AI w praktyce gospodarczej nie zagrożą kluczowym wartościom. Za takie uznawane są wartości respektowania ludzkiej godności w wykonywaniu pracy. Duża uwaga zostanie skierowana również na to, aby stosowanie AI nie wzmagało zagrożeń psychospołecznych (w tym dehumanizację pracy). Badania mają również na celu nakreślenie wizji pracy przyszłości, którą zwiastują różnorodne zastosowania AI, w tym nakreślenia sposobu bezpiecznego przejścia do niej.

Prace projektowe będą ogniskowały się również wokół zagadnienia korzyści ze stosowania AI, które mogą osiągnąć pracodawcy i pracobiorcy. Chodzi o korzyści w postaci:

  • nowych szans na rynku pracy (nowe miejsca pracy),
  • nowej organizacji pracy (wyższa efektywność),
  • poprawy warunków pracy (wyższy poziom dobrostanu pracujących).

Nowa fala digitalizacji

Prace projektowe opierają się na założeniu, że obecnie mamy do czynienia z nową falą digitalizacji. Jej przejawem jest rosnące zastosowanie systemów AI w miejscu pracy. Poprzednie fazy przynosiły: komputeryzację, automatyzację i robotykę.

Obecna faza charakteryzuje się właśnie ogromnym wpływem sztucznej inteligencji na stosunki pracy. Jeśli pozostałaby nieuregulowana, może stanowić znaczne zagrożenie dla niektórych grup pracowników (dehumanizacja procesu decyzyjnego w sferze np. rekrutacji pracowników, monitorowania pracy, analizowania zachowani, rozwiązania zatrudnienia).

Brak właściwych regulacji/działań publicznych wobec stosowania określonych algorytmów AI może potencjalnie prowadzić do podstępnych form dyskryminacji. Programiści mogą wdrukowywać swoje jawne i ukryte uprzedzenia do systemów AI.

Działania państw wobec technologii sztucznej inteligencji

Badania mają pokazać trendy w wybranych państwach w zakresie ich podejścia do AI, w tym mają one pokazać to w jakim stopniu podejmują działania regulacyjne wobec stosowania AI, w tym na ile ich regulacje skutecznie przeciwdziałają potencjalnym ryzykom (np. dotyczącym zagrożeniom psychospołecznym w zakładach pracy, zagrożeniom dehumanizacji pracy).

Chodzi zatem o zbadanie krajowych ram prawnych, w tym zdiagnozowanie sposobów zarządzania sztuczną inteligencją, zarządzania algorytmami (algorithmic management). Badania mają także ukazać środki jakie państwa podjęły – w ustawodawstwie i politykach publicznych – aby uregulować obszary potencjalnych ryzyk, w tym ryzyk psychospołecznych.

Badania obejmą analizy metod, jakie stosują państwa w przeciwdziałaniu odczłowieczaniu pracy, ale także w dostarczaniu pracownikom i przedsiębiorstwom umiejętności umożliwiających wykorzystywanie AI z sukcesem. Chodzi także o wskazanie przepisów, które wymagają zmiany w celu lepszego stanowienia prawa w zakresie AI.

Ryzyka związane z AI

Badania uwzględnią wspomnianą powyżej problematykę ryzyk. Mają one miejsce wraz z rosnącym tworzeniem algorytmów AI. W licznych sferach oddziaływają na bezpieczeństwo pracy, tworzą zagrożenia dla integralności fizycznej człowieka, jego bezpieczeństwa psychicznego lub poznawczego. Widoczne stają się ryzyka dla zasady sprawiedliwości (wolność od uprzedzeń i dyskryminacji), zachowania prywatności, itp.

Ryzyka mają miejsce również w procesach zarządzania zasobami ludzkimi. AI jest bowiem wykorzystywana w takich procesach, jak rekrutacja, ocena pracowników, awanse, rozwiązanie stosunku pracy, dostarczanie pracownikom informacji. Stąd pojawia się kwestia praw pracowników, w tym do żądania interwencji człowieka w sytuacji gdy ma zapaść decyzja o pracowniku w oparciu o dane pochodzące z systemów AI. Innymi słowy chodzi tu o prawo do kwestionowania decyzji, które są podejmowane na bazie zastosowania AI.

Dalsze zagadnienia: tworzenie nowych podejść do rynku pracy, wykorzystanie edukacji i szkoleń, kompetencje przyszłości (reskilling), rozszerzenie roli partnerów społecznych w procesie sprawiedliwego przejścia do pracy przyszłości, dobre praktyki dotyczące roli partnerów społecznych i dialogu dla zarządzania i monitorowania wpływu AI.

Przyszła unijna dyrektywa

Kolejnym celem projektu są analizy tego, w jakim stopniu AI można wykorzystać w systemie dialogu społecznego. Np. to kwestia czy negocjacje zbiorowe (układy zbiorowe pracy) mogą zostać usprawnione dzięki danym pochodzącym z zarządzania algorytmicznego.

Analizowane będą działania europejskich partnerów społecznych, m.in o na rzecz przyjęcia w przyszłości dyrektywy UE Parlamentu Europejskiego i Rady dotyczącej systemów algorytmicznych w miejscach pracy (algorithmic systems at Work) (EU AI Act1). Działania partnerów mają zapewnić, że uregulowania unijne powinny zapewnią, że pracujący zachowają odpowiednie warunki w wykonywaniu pracy.

Założeniem jest, że na bazie powyższej dyrektywy powstaną narodowe projekty regulacji/ustaw o sztucznej inteligencji UE. Chodzi o określenie warunków umożliwiających efektywne promowanie tych projektów. Powinny one sprostać zasadom, które europejscy partnerzy społeczni zawarli w dwustronnej ramowej umowie na temat digitalizacji (European Social Partners Framework Agreement on Digitalisation). Umowa zakłada, że wszelkie ustawodawstwo narodowe powinno zawierać gwarancję zachowania zasady kontroli człowieka nad algorytmami i poszanowanie godności ludzkiej pracujących.

Ponadto projekt ma określić warunki wzmacniania potencjału partnerów społecznych, aby mogli efektywnie reagować na wyzwania wynikające z digitalizacji. Podjęli zobowiązania, aby monitorować wpływ AI na stosunki pracy, na procesy interakcji między ludzką kontrola AI i zarządzaniem algorytmicznym danymi i procesami decyzyjnymi w przedsiębiorstwach. Zobowiązali się, aby nie rezygnować z zachowania zasady ludzkiej godności w wykonywaniu pracy w sytuacji licznych i rosnących zastosowań AI. Mają również dążyć do wykorzystania dialogu społecznego i zbiorowych układów pracy na poziomie narodowym, aby poszukiwać szans na adekwatne wykorzystanie AI w sferze wykonywania pracy.

Produkty projektu

Narodowe zespoły projektowe – na bazie badań – wytworzą raporty krajowe diagnozujące powyższą problematykę. Dostarczą również wkładu do raportu porównawczego europejskiego. Przeprowadzą również seminaria tematyczne, okrągłe stoły. Przewidziana jest również końcowa międzynarodowa konferencja.

Pierwsze spotkanie w ramach projektu TransFormWork2 o sztucznej inteligencji

Anna Janowska i Andrzej Zybała z Katedry Polityki Publicznej SGH uczestniczyli w pierwszym spotkaniu koordynatorów krajowych i badaczy zaangażowanych w realizację projektu pt. “Partnerzy społeczni wspólnie w kierunku lepszej i skutecznej regulacji sztucznej inteligencji na rzecz sprawiedliwego przejścia do pracy przyszłości”. Spotkanie było w Sofii w dniach 24-25.04.2024.

Zespół TransFormWork 2

Przedstawiciele partnerów z międzynarodowego konsorcjum badawczego przedyskutowali wiele zagadnień, zarówno technicznych, jak i merytorycznych.

Przedstawiali sytuację w swoich państwach w zakresie tamtejszych debat na temat sztucznej inteligencji, a także zaangażowania rządów i partnerów społecznych w tworzenie regulacji w tym zakresie. Chodziło zwłaszcza o działania partnerów społecznych (pracodawcy i związki zawodowe) w sprawie wdrożenia treści dwustronnego europejskiego porozumienia dotyczącego digitalizacji.

Zawiera ono podkreślenie zasady „kontroli systemów sztucznej inteligencji przez człowieka” w sferze pracy. Wskazuje również na kwestie takiego wykorzystania sztucznej inteligencji, aby nie zagrażało to godności pracownika, jego prawom, czy środowisku pracy.

Definiowanie sztucznej inteligencji …

Ponadto przedstawiciele członków konsorcjum dyskutowali zagadnienie sposobu zdefiniowania zjawiska sztucznej inteligencji. To na potrzeby przyszłego raportu końcowego. Omawiali także metody badawcze, które zostaną wykorzystane, czy wybór sektorów gospodarki i sfery publicznej, które będą zbadane metodą studium przypadku.

Dr Anna Janowska, badaczka projektu i prof. Andrzej Zybała, koordynator projektu, zaprezentowali SGH jako partnera projektu oraz bieżący stan rzeczy w polskich dyskusjach i działaniach na rzecz wykorzystania i właściwego uregulowania systemów sztucznej inteligencji (SI). Dyskutowano również kwestie techniczne dotyczące sposobu upowszechniania działań podejmowanych w projekcie (seminaria, okrągłe stoły) i wyników badań (każdy z partnerów ma wytworzyć stronę internetową na stronach swoich instytucji).

Działania w Polsce na rzecz sztucznej inteligencji

Przekazano informację, że w Polsce trwają pogłębione dyskusje o sztucznej inteligencji, w tym w zakresie jej wpływu na sferę pracy. Wspomniano o strategii rządu „Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020” oraz o planach opublikowania nowej wersji, a także obecności problematyki SI w innych dokumentach strategicznych.

Ponadto szereg podmiotów publicznych angażuje się w analizy SI i możliwości jej wykorzystania w różnych sektorach gospodarki i państwa. Przekazano także informację, że obecnie partnerzy społeczni pozostają zaangażowani w szereg debat w sprawie digitalizacji i sztucznej inteligencji, które toczą się w różnych ciałach, czy to w sejmowej Komisji Cyfryzacji, Innowacyjności i Nowoczesnych Technologii czy w zespołach/podzespołach Komisji Dialogu Społecznego.

Związki zawodowe wnoszą postulat, aby uzyskały prawo do informacji o algorytmach stosowanych w zakładzie pracy. Chcą, aby zostało to uregulowane w potencjalnej nowelizacji ustawy o związkach zawodowych.

Dodatkowo eksperci NSZZ Solidarność oraz Konfederacji Pracodawców Lewiatan pracują nad koncepcją Krajowego Planu Działań na rzecz wdrożenia w Polsce wspomnianego powyżej europejskiego porozumienia w sprawie digitalizacji. Prace toczą się w ramach międzynarodowego projektu. Projekt nie był dotąd dyskutowany w szerszym gronie partnerów społecznych.

.