KI (kunsmatige intelligensie) het ’n onvermydelike deel van die hedendaagse lewe geraak. Vanaf virtuele assistente (Alexa van Amazon en Siri van Apple) tot genereerders van oorspronklike teks en beelde (soos ChatGTP en Bard van Google) – hulle almal verrig ’n wye verskeidenheid take met die oog daarop om ons tyd of moeite in ons daaglikse werk en huishouding te spaar. KI is ook aan die werk, hoewel dalk op ’n meer verskuilde vlak, in kragtige beeld- en gesigsherkenningsagteware in sekuriteitsisteme, diagnostiese instrumente in gesondheidsorgnetwerke en instrumente vir menslikehulpbronbestuur. KI het ’n regstreekse impak, soms onbenullig en soms ingrypend, op ons as individue én as breër samelewing. En hoewel dit talle voordele mag hê, skep dit ook probleme. Een daarvan is gendersydigheid teen vroue.
’n Mens wil graag aan KI-instrumente as neutrale, onpersoonlike rekenaarkodes dink. Ons moet egter onthou dat hulle deur menslike programmeerders ontwikkel word en dus die sydighede van hulle menslike skeppers sal weerspieël, tensy beveiliging teen sulke sydighede ingebou word. Boonop sal KI-instrumente enige sydigheid weerspieël wat voorkom in die opleidingsdata, wat die produk van mense óf masjiene kan wees.
Gendersydigheid in KI kan tydens algoritmeontwikkeling ontstaan, tydens die saamstelling van opleidingsdatastelle en in KI-gegenereerde besluitneming. Dit kom voor in woord-inbeddings wat ’n verband tussen sekere beroepe en sekere genders lê. Dít kan, onder meer, aanstellingsprosesse vir poste negatief beïnvloed en bestaande stereotipes voortsit – byvoorbeeld die aanname dat die woord ‘dokter’ slegs met manlike voornaamwoorde (‘hy’, ‘hom’) vereenselwig word. Die gebruik van KI in sekere sektore – soos gasvryheid, toerisme, kleinhandel en onderwys – kan indiensnemingsgeleenthede en gelykheid by die werkplek vir vroue benadeel. Dit kan ook ’n uitwerking op gesigherkeningsagteware hê wat kwesbare en gemarginaliseerde gemeenskappe mag benadeel. ’n Ewe ernstige probleem is dat gendersydigheid in KI kan veroorsaak dat genderstereotipering en ‑ongelykhede in die samelewing voortduur. Daarby is die gevaar van virtuele assistente met vrouestemme (soos Alexa en Siri) en vervroulikte en hipergeseksualiseerde robotte (soos Saya en Geminoid F) wat ontwikkel is om affektiewe of versorgingstake te verrig dat tradisionele geslagsrolle versterk en vroue verontmenslik en geobjektiveer word.
Masjienleer is net so goed en betroubaar as die datastelle waaruit dit leer. Byvoorbeeld, as ’n KI-model opgelei word om mediese toestande volgens mediese beelde te diagnoseer, berus die KI op masjienleertegnieke aan die hand van honderde duisende beelde as opleidingsdata. Daarby verg dit leiding vanaf kundige gesondheidspraktisyns om te verseker dat siektes akkuraat uitgeken word. Nietemin kan daar steeds, ondanks die oorvloed voorbeeldmateriaal, haakplekke met die KI-model se diagnostiese betroubaarheid wees. Byvoorbeeld, as X-straaldata wat in opleiding gebruik word slegs manspasiënte uitbeeld, kan dit gebeur dat die KI-model se voorspellings betroubaar is slegs wat mans betref; dit wil sê, dit mag onakkurate diagnoses by vroue oplewer. Dit is dus noodsaaklik dat KI-modelle aan die hand van diverse en inklusiewe datastelle opgelei word.
’n Diverse werkmag in KI-ontwikkeling sal ook help om sydige uitkomste te voorkom. Nietemin is vroue histories onderverteenwoordig in KI-verwante velde soos rekenaars, digitale-inligting-tegnologie, ingenieurswese, wiskunde en fisika; en na raming is slegs 12% van KI-navorsers tans vroue. Die Wêreld- Ekonomiese Forum voorspel dat dit na verwagting 132 jaar sal neem om gendergelykheid wêreldwyd te bewerkstellig.
KI sal voortgaan om te ontwikkel en te leer uit oorspronklike inhoud wat deur mense geskep is. Om aan ’n sydigheidvrye KI-wêreld vorm te gee, sal dus menslike ingryping verg, asook ’n verbintenis tot diversiteit en gelykheid in KI-ontwikkeling. Ons kan KI hiermee help deur kritiese vrae te stel en deur bewus te bly van kwessies soos hoe gendersydigheid in KI die samelewing sou kon beïnvloed.
– deur Christo de Kock en Tania Botha, vertaal deur Elzette Wickens
Bronne:
International Women’s Day. 2023. Gender and AI: Addressing bias in artificial intelligence [Aanlyn]. Beskikbaar: https://www.internationalwomensday.com/Missions/14458/Gender-and-AI-Addressing-bias-in-artificial-intelligence [2023, Augustus 4].
Manasi, A., Panchanadeswaran, S. & Sours, E. 2023. Addressing Gender Bias to Achieve Ethical AI [Aanlyn]. Beskikbaar: https://theglobalobservatory.org/2023/03/gender-bias-ethical-artificial-intelligence/#:~:text=The%20tendency%20to%20feminize%20AI,of%20female%20names%20or%20pronouns [2023, Augustus 4].