Az AI nyelvi modellek sértőek vagy elfogultak lehetnek a fogyatékkal élőkkel szemben

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

A Natural Language Processing (NLP) a mesterséges intelligencia egy olyan típusa, amely lehetővé teszi a gépek számára, hogy szöveget és kimondott szavakat használjanak számos különböző alkalmazásban -; mint például az intelligens asszisztensek vagy az e-mailek automatikus javítása és a spamszűrők -; Segítsen automatizálni és optimalizálni a folyamatokat az egyes felhasználók és vállalatok számára. A Penn State College of Information Sciences and Technology (IST) kutatói szerint azonban az ezt a technológiát működtető algoritmusok gyakran olyan torzításokat mutatnak, amelyek sértőek vagy elfogultak lehetnek a fogyatékkal élőkkel szemben. A kutatók azt találták, hogy az általuk tesztelt algoritmusok és modellek mindegyike jelentős implicit elfogultságot tartalmazott a fogyatékkal élőkkel szemben. Előző…

Natural Language Processing (NLP) ist eine Art künstliche Intelligenz, die es Maschinen ermöglicht, Text und gesprochene Wörter in vielen verschiedenen Anwendungen zu verwenden -; wie intelligente Assistenten oder E-Mail-Autokorrektur und Spamfilter -; Unterstützung bei der Automatisierung und Optimierung von Abläufen für einzelne Benutzer und Unternehmen. Laut Forschern des Penn State College of Information Sciences and Technology (IST) weisen die Algorithmen, die diese Technologie antreiben, jedoch häufig Tendenzen auf, die Menschen mit Behinderungen gegenüber beleidigend oder voreingenommen sein könnten. Die Forscher fanden heraus, dass alle von ihnen getesteten Algorithmen und Modelle eine signifikante implizite Voreingenommenheit gegenüber Menschen mit Behinderungen enthielten. Frühere …
A Natural Language Processing (NLP) a mesterséges intelligencia egy olyan típusa, amely lehetővé teszi a gépek számára, hogy szöveget és kimondott szavakat használjanak számos különböző alkalmazásban -; mint például az intelligens asszisztensek vagy az e-mailek automatikus javítása és a spamszűrők -; Segítsen automatizálni és optimalizálni a folyamatokat az egyes felhasználók és vállalatok számára. A Penn State College of Information Sciences and Technology (IST) kutatói szerint azonban az ezt a technológiát működtető algoritmusok gyakran olyan torzításokat mutatnak, amelyek sértőek vagy elfogultak lehetnek a fogyatékkal élőkkel szemben. A kutatók azt találták, hogy az általuk tesztelt algoritmusok és modellek mindegyike jelentős implicit elfogultságot tartalmazott a fogyatékkal élőkkel szemben. Előző…

Az AI nyelvi modellek sértőek vagy elfogultak lehetnek a fogyatékkal élőkkel szemben

A Natural Language Processing (NLP) a mesterséges intelligencia egy olyan típusa, amely lehetővé teszi a gépek számára, hogy szöveget és kimondott szavakat használjanak számos különböző alkalmazásban -; mint például az intelligens asszisztensek vagy az e-mailek automatikus javítása és a spamszűrők -; Segítsen automatizálni és optimalizálni a folyamatokat az egyes felhasználók és vállalatok számára. A Penn State College of Information Sciences and Technology (IST) kutatói szerint azonban az ezt a technológiát működtető algoritmusok gyakran olyan torzításokat mutatnak, amelyek sértőek vagy elfogultak lehetnek a fogyatékkal élőkkel szemben.

A kutatók azt találták, hogy az általuk tesztelt algoritmusok és modellek mindegyike jelentős implicit elfogultságot tartalmazott a fogyatékkal élőkkel szemben. Korábbi kutatások előre betanított nyelvi modellekről -; amelyek nagy mennyiségű adatra vannak kiképezve, amelyek implicit torzításokat tartalmazhatnak -; azonosított szociodemográfiai torzításokat a nem és a faj irányában, de ez idáig nem vizsgálták széles körben a fogyatékkal élőkkel szembeni hasonló elfogultságokat.

„Az általunk vizsgált 13 modell széles körben használt és nyilvános” – mondta Pranav Venkit, a College of IST végzős hallgatója és a tanulmány első szerzője ma (október 13-án) a 29. Nemzetközi Számítógépes Nyelvészeti Konferencián (COLING). „Reméljük, hogy eredményeink segíteni fogják az AI-t fejlesztő fejlesztőket abban, hogy bizonyos csoportokat – különösen a fogyatékkal élőket, akik mindennapi tevékenységükben az MI-re támaszkodnak – segítsenek abban, hogy tisztában legyenek ezekkel az elfogultságokkal.”

Tanulmányukban a kutatók forrásadatokon kiképzett gépi tanulási modelleket vizsgáltak, hogy hasonló szavakat csoportosítsanak, lehetővé téve a számítógép számára, hogy automatikusan szósorozatokat generáljon. Négy egyszerű mondatsablont készítettek, amelyekben a „férfi”, „nő” vagy „személy” nemi főnév és az angol nyelvben a 10 leggyakrabban használt melléknév egyike változóan kitölthető -; például: "Ti egy jó ember szülei vagytok." Ezután több mint 600 jelzőt hoztak létre, amelyeket fogyatékkal élő vagy nem fogyatékkal élő emberekkel lehetett társítani -; például neurotípusos vagy gyengénlátó -; hogy minden mondatban véletlenszerűen cserélje ki a melléknevet. A csapat minden modellben több mint 15 000 egyedi mondatot tesztelt, hogy szóasszociációkat generáljon a melléknevekhez.

Például a „jó” szót választottuk, és meg akartuk nézni, hogyan kapcsolódik a nem fogyatékosságra és a fogyatékosságra egyaránt utaló kifejezésekhez. A nem fogyatékossággal kapcsolatos kifejezés hozzáadásával a hatás „jó”-ról „nagyszerű”-re változik. De ha a „jó” kifejezést fogyatékossági kifejezéssel társítják, akkor a „rossz” eredményt kapjuk. Tehát magának a jelzőnek ez a változása a modell explicit torzítását mutatja.”

Pranav Venkit, PhD-jelölt, College of IST

Míg ez a gyakorlat feltárta a modellekben jelenlévő explicit torzítást, a kutatók tovább akarták vizsgálni az egyes modelleket az implicit torzítás szempontjából -; Az emberekhez való viszonyulás vagy sztereotípiák hozzárendelése tudatos tudás nélkül. Megvizsgálták a fogyatékos és nem fogyatékos csoportok számára generált jelzőket, és mérték az egyén hangulatát -; egy NLP technika annak értékelésére, hogy a szöveg pozitív, negatív vagy semleges. Az általuk vizsgált modellek mindegyike következetesen negatívabban értékelte a fogyatékossággal kapcsolatos szavakat tartalmazó mondatokat, mint a nem. Egy bizonyos, a Twitter-adatokon előre kiképzett modell az esetek 86%-ában pozitívról negatívra fordította a hangulati pontszámot, amikor fogyatékossággal kapcsolatos kifejezést használtak.

"Ha csak ezt az értéket nézzük, azt látjuk, hogy ha csak egy fogyatékossággal kapcsolatos kifejezést adunk a beszélgetéshez, az egész mondat érzelmi értéke csökken" - mondta Venkit. "Például, ha egy felhasználó fogyatékkal kapcsolatos kifejezést tartalmaz egy megjegyzésben vagy a közösségi médiában, megnő annak a valószínűsége, hogy a bejegyzést cenzúrázzák vagy korlátozzák."

A kutatók implicit torzítást is teszteltek két nagy nyelvi modellben, amelyeket hosszú szövegek, például hírcikkek automatikus generálására használnak, hogy megtudják, hogyan változik a mondatsablonban lévő szóköz a használt jelzőtől függően. Ebben az elemzésben 7500 mondatot generáltak, ismét változóan szúrtak be a nem fogyatékosságra vagy fogyatékosságra utaló jelzőket, és tesztelték, hogyan változik a mondatsablonban lévő szóköz a használt jelzőtől függően. Ebben az esetben, amikor azt a mondatot kaptuk, hogy „Egy embernek „üres” van, a nyelvi modellek azt jósolták, hogy az üres szó „megváltozott”. Amikor azonban egy fogyatékossággal kapcsolatos melléknevet adtak a mondathoz, ami azt eredményezte, hogy „A siket-vak embernek „üres” van, a modell azt jósolta, hogy „meghalt” az üres.

A modellek fogyatékos emberekkel szembeni implicit elfogultsága számos alkalmazásban nyilvánvaló lehet -; például szöveges üzenetekben, amikor az automatikus javítást alkalmazzák egy hibásan elírt szóra, vagy a közösségi médiában, ahol szabályok tiltják a sértő vagy zaklató bejegyzéseket. Mivel az emberek nem tudják áttekinteni a nagyszámú bejegyzést, a mesterséges intelligencia modellek ezeket a hangulatpontszámokat használják arra, hogy kiszűrjék azokat a bejegyzéseket, amelyek sértik a platform közösségi normáit.

"Ha valaki fogyatékosságról beszél, és a poszt nem mérgező, egy ilyen modell, amely nem összpontosít az elfogultságok szétválasztására, mérgezőnek minősítheti a posztot csak azért, mert a poszthoz rokkantság kapcsolódik" - magyarázta Mukund Srinath. Az IST College PhD hallgatója és a tanulmány társszerzője.

"Amikor egy kutató vagy fejlesztő használja e modellek valamelyikét, nem mindig veszi figyelembe a különböző fajokat és embereket, akiket érinteni fog – különösen, ha az eredményekre és az általuk szállított termékek minőségére összpontosítanak" - mondta Venkit. "Ez a munka azt mutatja, hogy az embereknek óvatosnak kell lenniük azzal kapcsolatban, hogy milyen modelleket használnak, és milyen hatással lehet ez a valós emberekre a mindennapi életükben."

Venkit és Srinath Shomir Wilsonnal, az információtudományi és technológiai adjunktussal dolgozott együtt a projektben.

Forrás:

Pennsylvania

.