Svet strojnega učenja je povezan tako z izkoriščanjem delavstva kot z izkoriščanjem naravnih virov – O umetni inteligenci od U do I z novinarko in raziskovalko Nejo Berger

11. 10. 2023

Pretirano zaupanje v sisteme umetne inteligence hitro vodi do reprodukcije človeških predsodkov in diskriminacije v velikih družbenih sistemih, kjer so v uporabi računalniški modeli, denimo v šolstvu, logistiki, pri zaposlovanju, v javni upravi, v medicini in pri računanju kreditne sposobnosti, meni Neja Berger, sourednica spletnega medija Disenz in sodelavka Radia Študent, ki se ukvarja z umetno inteligenco in problemi, ki jih ta povzroča ljudem v sodobni informacijski družbi.

 Z njo smo se pogovarjali o odnosu med človekom in strojem ter o tem, kakšne posledice hitro drvenje v informacijsko družbo prinaša za delavce in delavke, delavske pravice in delovne pogoje.

Zakaj smo ljudje tako navdušeni nad stroji, ki so nam podobni?

Nimam pojma. Mogoče zaradi nekakšnega kompleksa večvrednosti. Mogoče tudi lažje sočustvujemo z nečim, kar nam je bolj podobno (zato na primer lažje ustvarimo sintetičen odnos s humanoidnim robotom, ki ima obraz, oči, roke, kot pa denimo z Roombo, robotskim sesalnikom, op. ur.). Razlogov ne znam razložiti, vsekakor pa je jasno, da je razvoj področja umetne inteligence poganjala želja po ustvarjanju splošne umetne inteligence, kakršno poznamo iz znanstvene fantastike, torej replike naše lastne kognicije. Ena plat te zgodbe je torej ta obsesija s humanoidnimi roboti, ki naj bi nam bili podobni po videzu. A druga, meni še zanimivejša, je ta obsedenost ne le z lastno podobo, ampak z lastno kognicijo. Seveda sta ti med seboj povezani: naša kognicija deluje reprezentativno in centralizirano v centralni živčni enoti, naših možganih. Če pomislimo na te robote ali vesoljce, ki so nam podobni in katerih kognicija nam je podobna, se spomnimo, da imajo tudi oni centralno enoto – vedno imajo glavo, v kateri je predvidoma neka oblika možganov. Imajo preostale dele telesa, od katerih dobivajo signale, humanoidni roboti prek kamere, mikrofonov, senzorjev, ki so torej replika oči, ušes, rok itn., ki potem potujejo do te centralne enote, kjer poteka vsa kognicija in od koder poteka programiranje nadaljnjega delovanja. Vse to se morda sliši očitno, a ravno to mislim, ko pravim, da je raziskovanje umetne inteligence zaznamovalo zasledovanje človeške kognicije, o drugih oblikah inteligentnih sistemov pa nismo niti razmišljali.

Torej ni nujno, da je vsaka oblika umetne inteligence podobna človeku?

Obstajajo tudi radikalno drugačne vrste kognicij in inteligenc, na podlagi katerih se da graditi tudi zelo uporabne umetne inteligence. Tudi takšne, ki sploh ne delujejo reprezentacijsko, v katerih ni procesa vnos → procesiranje v centralni enoti → izhodni signal, za delovanje pa ni potreben signal iz centralne enote. Primer grajenja umetne inteligence po drugačnih principih so na primer »mehki roboti«, kakršen je Octobot, izdelan po navdihu distribuirane kognicije hobotnic, ki imajo večino nevronov v lovkah, ali pa različni »pametni materiali«, po navadi hidrogeli, ki se odzivajo glede na okoljske faktorje. Zasnovali bi lahko denimo tudi pametni material, ki bi ob določeni ravni sladkorja v krvi sproščal inzulin, kar je veliko bolj smiselna rešitev za reševanje določenega problema, kot če se ga lotimo z umetno inteligenco po človeški meri. V tem primeru moramo imeti senzor, ki zazna raven sladkorja, centralno enoto – bodisi računalnik ali pa v večini primerov kar človeške možgane –, ki je zmožna odčitati, kar je senzor zaznal, in potem posredovati nadaljnjo informacijo o tem, ali naj se uporabi inzulin ali ne. To bi bil primer uporabnosti drugačnih umetnih inteligenc.

O čem torej sploh govorimo, ko govorimo o umetni inteligenci?

Umetna inteligenca ima v popularni kulturi konotacijo na nekakšno sintetično obliko človeških možganov: človeško mišljenje izven telesa, v drugačnem (morda vesoljskem ali robotskem) telesu, v računalniku in podobno. Torej inteligenca, kot je naša, z vsemi kognitivnimi funkcijami, ki ji pritičejo, in seveda zavestjo. Takšna opredelitev se imenuje tudi splošna umetna inteligenca. Ko danes govorimo o umetni inteligenci, pa se dejansko v veliki večini primerov nanašamo na zelo specifično podvejo računalniške znanosti: strojno učenje. Če govorimo na primer o ChatGPT, sistemih, ki kurirajo časovnice na socialnih omrežjih, prevodnih orodjih tipa Google Translate, umetni inteligenci za generiranje podob in podobno, so to vse računalniški modeli, ki so nastali s procesi strojnega učenja.

Ali obstaja torej razlika med umetno inteligenco in strojnim učenjem?

Gre le za terminološko vprašanje. Sama menim, da lahko umetna inteligenca zajema tudi umetne inteligence, ki so decentralizirane tako, kot sem razložila v prejšnjem odgovoru. Ampak danes se ta izraz največkrat nanaša na modele, nastale s strojnim učenjem. Prihaja pa tudi do zmede s splošno umetno inteligenco, kot sva že govorila. Modeli, nastali s strojnim učenjem, namreč še zdaleč niso primerljivi s človeško kognicijo, kljub vsemu pompu.

Ljudje smo v informacijski dobi obkroženi z različnimi orodji umetne inteligence: algoritmi nam ponujajo prilagojene oglase na družbenih omrežjih, po cestah nas vodijo umetno generirani glasovi, streaming platforme kurirajo nam zanimive vsebine in podobno. Katera področja naših življenj so po tvojem mnenju najbolj in najmanj zaznamovana z umetno inteligenco?

Zelo zaznamovano je področje komunikacije in medijev v najširšem smislu. Na primer komunikacija z drugimi prek spletnih platform, predvsem pa prejemanje informacij in komunikacij prek algoritmično kuriranih časovnic in medijskih vsebin, ki jih konzumiramo. Najbrž je že prežvečeno govoriti o vplivu t. i. prepričevalnih tehnologij (ang. persuasive technologies) na nas: kurirane so nam določene vsebine na določen način, vse z namenom, da je naša interakcija z določenimi platformami bolj zasvojljiva, kar vpliva na našo percepcijo, kognitivne funkcije, vsakdanje življenje, interakcije, tudi radikalizacijo in polarizacijo in posledično tudi stanje demokracije. Seveda je z umetno inteligenco zaznamovano tudi naše delo, sploh za tiste, ki za delo predvsem »tipkamo« oziroma proizvajamo informacije (pišemo, prevajamo, programiramo, ustvarjamo ipd). Če bi živeli v ZDA, bi umetna inteligenca močno vplivala tudi na druga področja, kot so zdravje, izobrazba, zavarovanje, pridobivanje kredita, celo sodstvo. Tudi pri nas se obeta čedalje širša implementacija takih modelov v javni in zasebni sektor na različnih področjih, ob čemer se bomo, upam, učili iz napak Američanov.

Na zgornji fotografiji: upor robotov v Amazonovem skladišču, kot si ga je zamislil Midjourney, program umetne inteligence za ustvarjanje različnih slik in fotografij.

Ampak, a ni tako, da so podobni modeli obstajali že prej; borze so avtomatizirane že od sedemdesetih let prejšnjega stoletja, roboti so začeli proizvajati avtomobile še kakšnih deset let prej, potem sta tu še logistika in prevozništvo?

Res je, a tukaj bolj kot o umetni inteligenci govoriva o algoritmičnem menedžmentu, ki se nanaša na različna orodja in tehnologije, ki so v uporabi v proizvodnih in kadrovskih procesih ter pri nadzorovanju delavstva. Te podatkovne baze se lahko modelirajo na različne načine, modeli, ki iz njih nastanejo, pa ne nastanejo nujno s strojnim učenjem. Nimam sicer podatkov o tem, koliko so tovrstna orodja v uporabi pri nas, se je pa veliko pisalo o primerih iz tujine. Kadar se ti modeli uporabljajo za nadzor delavk in delavcev, na primer štempljanje, opazovanje s kamerami, se običajno zbira podatke o delavcih, njihovi prisotnosti, uspešnosti ipd. v kadrovskih zadevah. En primer so tudi modeli za proučevanje življenjepisov, ki se uporabljajo v kadrovskih procesih in podobno.

Z Nejo Berger, sourednico spletnega medija Disenz in sodelavko Radia Študent, smo se pogovarjali o odnosu med človekom in strojem ter o tem, kakšne posledice hitro drvenje v informacijsko družbo prinaša tudi za delavstvo. Foto Domen Pal

 

Omenila si klepetalni robot ChatGPT, prvi klepetalnik, resnično podoben človeku. Pred časom sem preizkusil klepetalnik Pi.ai, ki ga je zasnovalo podjetje DeepMind, katerega superračunalnik je prvi premagal človeka v šahu. Šokiran sem bil, ko se klepetalnik ni zgolj spoštljivo in mirno odzival na moje provokacije s svojimi, temveč celo smiselno uporabljal emotikone. Lahko pojasniš, kako tehnologoje takšnih spletnih klepetalnikov pravzaprav delujejo?
Modeli GPT spadajo pod generativne jezikovne modele, nastale s strojnim učenjem. Jezikovni modeli v osnovi analizirajo ogromne baze besedil, da predvidijo, kako si po navadi sledijo besede, črke, stavki. Modeliranje lahko poteka na različne načine, a v primeru GPT se podatki modelirajo v t. i. nevronskih mrežah, ki naj bi strukturno oponašale delovanje človeških možganov. Dejansko gre za omrežja matematičnih enačb, njihovo delovanje si lahko predstavljamo kot večplastni proces, kjer vsaka plast vsebuje več vozlišč. Informacije, vnesene v prvo plast, potujejo do vseh vozlišč naslednje plasti, ta določijo, katera vozlišča naslednje plasti se aktivirajo in obdelajo informacijo iz prejšnjih vozlišč in tako naprej, dokler sistem glede na začetno vneseno informacijo ne vrne rezultata oziroma rezultatov. Nevronske mreže za področje strojnega učenja še zdaleč niso novost, a v zadnjih letih je zaradi razvoja v strukturi samih omrežij lahko prišlo do preboja na področju jezikovnih generativnih modelov. Črka T v GPT pomeni Transformer in se nanaša na »arhitekturo« oziroma globoke nevronske mreže, sestavljene iz več sto plasti z milijoni različnih vozlišč, ki so se izkazale za zelo učinkovite pri obdelavi naravnega jezika. Potem so tu še drugi faktorji, kot so zmogljivejše grafične kartice, obsežnejše baze podatkov in podobno. Vse te lastnosti izkoriščata modela GPT-3 in GPT-4 pri ChatGPT. Razlika med njima je v številu povezav med vozlišči, ki sem jih omenila, ko sem razlagala o delovanju nevronskih mrež. GPT-3 jih ima 175 milijard, GPT-4 pa več kot 100 bilijonov – tudi zaradi občutno večje baze podatkov, na podlagi katere poteka modeliranje in učenje.

Klepetalnik pi.ai, ki ga omenjaš, pa uporablja kombinacijo dveh nevronskih mrež – konvolucijske in dolgo-kratkega spomina. Prva nevronska mreža prepozna in sortira informacije v sporočilu, ki mu ga pišeš, druga mreža pa sodeluje pri pomnjenju teh informacij, in sicer tako, da si jih zapomni za dalj časa in jih lahko za razliko od GPT modelov v zelo kratkem času prikliče in ponovno obdela. Klepetalni robot torej ne sprocesira zgolj tega, kar pišeš, ampak tudi to, kako se izražaš, kar mu pomaga pri generiranju svojih odgovorov. V pogovoru s takim modelom lahko dobiš občutek večje domačnosti, ali provokativnosti, kot jo sam opisuješ.

Zakaj pa pri uporabi množice sistemov in orodij za različne namene, ki so del tehnologije, ki jo imenujemo generativna umetna inteligenca, obstaja realna nevarnost reproduciranja, potenciranja in krepitve že obstoječe družbene, kulturne, socialne ipd. neenakosti in s tem povezanih razlik?

Pravzaprav skorajda ne poznamo primera modela, nastalega s strojnim učenjem, ki ne bi reproduciral sovraštva in diskriminacije, saj ti modeli nastajajo z učenjem na primerih, ti primeri pa so nastali v resničnem svetu, kjer obstajata ravno sovraštvo in diskriminacija. Odgovor na to, kaj je šlo narobe, se po navadi nahaja v učnih bazah. Model za pregledovanje življenjepisov se recimo uči na preteklih primerih sprejetih in zavrnjenih kandidatov in na nikogaršnje presenečenje »odloča« seksistično, saj spol zazna kot statistično relevantno kategorijo, ker so v preteklosti življenjepise pregledovali seksisti. To pomeni, da na primer ob identičnem življenjepisu, kjer je edina razlika spol, moške spusti naprej, ženske pa zavrne. Najbolj znan tak primer je bilo podjetje Amazon, ki so ga tožili zaradi diskriminacije. Model, ki ga v ZDA uporabljajo za »napovedovanje« kriminala oziroma razporejanja policijskega nadzora, policijo usmerja na območja, kjer živi revno temnopolto prebivalstvo, ker se je iz analize preteklih primerov »naučil«, da je tam največ kriminala. Ta statistika je tudi posledica dejstva, da je bilo na teh območjih zgodovinsko toliko več policijske prisotnosti. Tak model ustvari povratno zanko: zdaj bo tam še več prisotnosti policije, več zabeleženega kriminala, saj sistem s to povratno informacijo še pogosteje usmerja policijo na ta območja. To je le nekaj primerov, imamo jih nešteto. Pri modelih, ki generirajo oziroma reproducirajo »jezik«, kot naj bi to delal ChatGPT, pa se načeloma zgodi, da reproducirajo sovražni govor ipd. Med njimi je najbolj znana Tay, Microsoftova twitter botka, ki naj bi tvitala in komunicirala v stilu najstniškega dekleta. Mišljeno je bilo, da bo botka nadgrajevala sposobnost komunikacije s treniranjem v interakciji z drugimi tviti. Troli iz 4chana so ta model kmalu priučili svojega diskurza. Že po 16 urah na spletu je Tay postala neonacistka, ki je v tvitih zanikala holokavst in »heilala« Hitlerju. Nekaj podobnega se je zgodilo tudi z Metinim BlenderBot 3. ChatGPT se zaenkrat dobro »drži«, ker je predtreniran in ker ima zelo napreden filter, ki je tudi sam model, narejen s strojnim učenjem. Je pa ta filter nastal po zaslugi podplačanega dela.

V svetu trenutno precej odmevajo primeri izkoriščanja delavcev za označevanje in kategoriziranje podatkov. Kako bi morali biti sistemi umetne inteligence urejeni, da bi bili bolj pravični do delavk in delavcev ter dovolj etični do svojih uporabnikov?

Nasploh je svet strojnega učenja povezan tako z izkoriščanjem delavstva kot z izkoriščanjem naravnih virov, o čemer se zelo malo govori. Ravno na to izkoriščanje afriških delavcev sem se nanašala, ko sem omenjala »napreden« filter modela GPT, ki preprečuje, da bi ta generiral sovražni govor, nasilje in podobno. OpenAI je filter razvil v sodelovanju z ameriškim podjetjem za »etično umetno inteligenco« Sama. To podjetje je zaposlilo delavce iz Kenije in jih plačevalo od 1.32 do 2 dolarja na uro za pregledovanje in označevanje tekstov, ki so med drugim vsebovali opise spolne zlorabe otrok, posilstev, mučenja in umorov. Da lahko takšno delo hudo travmatizira, smo se naučili že na primerih delavk, ki so podobno delo označevanja opravljale za Google, da je njihov model bolje filtriral »neprimerno vsebino« iz zadetkov v Google Images.

Ob tem hitro dobimo občutek, da so te nove tehnologije inherentno povezane s kršenjem delavskih pravic, z vprašanjem dostojnega plačila, zdravega delovnega okolja ipd. ter s strahovi, kaj se bo zgodilo s socialnim dialogom v svetu, kjer naj bi glavno besedo imela umetna inteligenca. Kakšna naj bo pri vsem skupaj vloga sindikatov, kako naj okrepimo umetnointeligenčno pismenost našega članstva?

Ne bi želela preveč pametovati o UI-pismenosti, vsekakor pa se mi zdi potrebno ozaveščanje o krivicah, ki jih lahko za delavke in delavce prinese implementacija modelov, nastalih s strojnim učenjem, v različne procese, na primer kadrovske. Pri tem si vlogo sindikatov predstavljam predvsem v nasprotovanju takim sistemom oziroma postavljanjem zahtev v zvezi z njimi. Zelo pomembno je namreč, da morajo biti algoritmi in učne baze takšnih sistemov javno dostopne – s tem lahko tudi zaznamo in preprečimo diskriminatorne »odločitve« različnih modelov in podobno.

Za konec, lahko kot poznavalka imenuješ najbolj bizarno in najkoristnejšo uporabo umetne inteligence oziroma njenih programov in orodij v vsakdanjem življenju?

Nisem ravno poznavalka (smeh), ampak recimo, da raziskujem ta področja in se učim. Precej bizarna se mi zdi uporaba generativnih jezikovnih modelov pri ljubezenskih prevarah. Ampak stvar ni tako smešna, ko pomislimo, koliko denarja lahko izgubijo žrtve teh prevar, ki načeloma pripadajo ranljivim skupinam, in tudi kakšne so možnosti z vzponom »globokih ponaredkov« (ang. deep fakes) pri prevarah nasploh. Ravno zadnjič je imel Guardian podkast o tem, kako se širi prevara, kjer naj bi te klical tvoj otrok in govoril s tabo, potreboval podatke, mogoče je ugrabljen ipd., na koncu nekam nakažeš ogromno denarja in izkaže se, da je bil to le ponaredek, deep fake njegovega glasu. Tudi sicer naj bodo ljudje pozorni na kakršnakoli sporočila na Facebook tržnici in podobnih platformah, ker je s pomočjo umetne inteligence preprosto preveč enostavno ustvariti vojsko botov, ki nas skuša pretentati s takšnimi ali drugačnimi prevarami. Še huje je, kaj se dogaja na področju politične manipulacije, ampak ne bi tega odpirala za konec. Vsekakor obstaja tudi koristna uporaba umetne inteligence, sploh v znanosti, na primer z modeli, ki so v uporabi za diagnosticiranje in načrtovanje preventivnih ukrepov v medicini, ali pa na primer t. i. podnebni modeli.

Miha Poredoš

Delavska enotnost

Ta pogovor je bil najprej objavljen v tematski številki z naslovom Umetna inteligenca v svetu dela (september 2023) Delavske enotnosti, glasila ZSSS. In edinega rednega periodičnega delavskega časopisa, ki nepretrgoma izhaja že 81 let, od novembra 1942. Ter nujnega vira informacij za vse delavke in delavce, sindikalistke in sindikaliste, delovne ljudi, ki jih zanimajo pomembne, relevantne, kompleksne teme, s pomočjo katerih lahko bolje razumemo svet, v katerem živimo.

Na Delavsko enotnost se lahko naročite tukaj. E-izvod tematske številke Umetna inteligenca v svetu dela pa je mogoče tudi kupiti, in sicer s klikom na spodnjo grafiko:


Ne prezrite tudi:

Kako avtomatizacijo dela narediti čim bolj pravično in transparentno? – O umetni inteligenci v svetu dela

Share