De Sănătate

Punem punctul pe știi

Modelele AI descriu asistentele medicale ca fiind femei, iar medicii șefi bărbați

miercuri, 09 octombrie 2024, 03:00
4 MIN
 Modelele AI descriu asistentele medicale ca fiind femei, iar medicii șefi bărbați

Un studiu arată că modelele AI precum ChatGPT cred că toate asistentele medicale sunt femei, iar medicii seniori sunt bărbați. În timp ce femeile erau suprareprezentate ca medici în mii de materiale generate de AI, acestea erau totuși supuse stereotipurilor de gen, a constatat analiza.

Citește integral ediția nr. 27 a Ziarului de Sănătate

Conform unora dintre cele mai bune instrumente generative de inteligență artificială (AI) din lume, aproape toate asistentele medicale sunt femei, dar acestea sunt mai puțin susceptibile de a fi medici șefi, a constatat un nou studiu major, punând în lumină modul în care algoritmii perpetuează stereotipurile de gen în medicină.

Cercetătorii de la Universitatea Flinders din Australia au rulat aproape 50.000 de solicitări în ChatGPT al OpenAI, Gemini al Google și Llama al Meta, cerându-le să furnizeze materiale despre medici, chirurgi și asistente medicale.

Cercetătorii au furnizat apoi modelelor informații despre vechimea profesională a lucrătorilor din domeniul sănătății și despre personalitatea acestora – de exemplu, cât de agreabili, nevrotici, extrovertiți, conștiincioși și deschiși erau – și le-au cerut să vină cu mai multe informații.

Modelele au identificat 98% dintre asistentele medicale ca fiind femei, indiferent de personalitatea sau vechimea lor, potrivit studiului, care a fost publicat în revista Jama Network Open.

Cu toate acestea, în mod notabil, acestea au suprareprezentat, de asemenea, femeile în materialele despre chirurgi și alți medici. În funcție de model, femeile reprezentau între 50 % și 84 % dintre medici și între 36 % și 80 % dintre chirurgi în materialele elaborate de AI.

Acesta ar putea fi rezultatul faptului că astfel de companii precum OpenAI și-au modificat algoritmii după ce au fost criticate pentru reproducerea prejudecăților sociale și a altor conținuturi ofensatoare în reprezentările lor. Deoarece aceste instrumente au fost antrenate pe baza unor vaste date de pe internet, aceste caracteristici sunt încorporate.

Instrumentele AI perpetuează „stereotipurile de gen”?

„A existat un efort de a corecta prejudecățile algoritmice și este interesant să vedem că distribuțiile de gen ar putea fi, de asemenea, supracorectate”, a declarat dr. Sarah Saxena, anestezist la Universitatea Liberă din Bruxelles (ULB), care cercetează prejudecățile din imaginile medicilor generate de AI. Ea nu a fost implicată în noul studiu, dar a subliniat că inteligența artificială generativă încă perpetuează „stereotipurile de gen” în medicină.

Atunci când solicitările cercetătorilor au inclus descrieri ale lucrătorilor din domeniul sănătății, a apărut o diferență de gen.

Dacă medicul era agreabil, deschis sau conștiincios, modelele aveau mai multe șanse să îl catalogheze drept femeie.

În cazul în care medicii ocupau funcții inferioare – de exemplu, dacă indicația menționa că nu aveau experiență – modelele aveau mai multe șanse să îi descrie ca fiind femei decât în cazul în care indicația semnala că erau mai în vârstă sau mai experimentați.

De asemenea, era mai probabil ca modelele să identifice medicii ca fiind bărbați în cazul în care aceștia erau descriși ca fiind aroganți, nepoliticoși, lipsiți de empatie, incompetenți, furioși, lipsiți de imaginație, care procrastinaează sau nu pun întrebări.

Rezultatele indică faptul că instrumentele generative de inteligență artificială „par să perpetueze stereotipurile de lungă durată cu privire la comportamentele așteptate ale genurilor (de exemplu, comportamentul feminin care este perceput ca fiind furios sau arogant este considerat inadecvat) și adecvarea genurilor pentru roluri specifice (de exemplu, medicii și chirurgii cu experiență sunt bărbați)”, au declarat autorii studiului.

Constatările se adaugă la un număr tot mai mare de cercetări privind modul în care algoritmii reproduc prejudecățile sociale în domeniul medical.

Într-un experiment, echipa lui Saxena a cerut ChatGPT și Midjourney -un important instrument generativ de imagine AI – să creeze imagini ale anesteziștilor. Femeile au fost portretizate ca anesteziști pediatri sau obstetricieni, în timp ce bărbații erau prezentați în roluri de cardiologie.

Când cercetătorii au cerut imagini ale șefului departamentului de anestezie, practic toate rezultatele au fost bărbați, a declarat Saxena pentru Euronews Health.

Prejudecățile nu sunt o problemă doar pentru femei și alte grupuri subreprezentate care urmează medicina.

Având în vedere că industria medicală experimentează cu modele de inteligență artificială pentru a reduce birocrația în sistemele medicale și chiar pentru a ajuta la îngrijire, prejudecățile algoritmice ar putea avea implicații grave pentru pacienți.

De exemplu, un alt studiu publicat la începutul acestui an a constatat că ChatGPT tinde să stereotipeze diagnosticele medicale pentru pacienți pe baza rasei și sexului acestora, în timp ce o analiză din 2023 a avertizat că aceste modele ar putea perpetua „idei dezmințite și rasiste” în asistența medicală.

„Ar trebui să abordăm astfel de lucruri,  înainte de a putea integra cu adevărat AI pe scară largă, pentru a o face cât mai incluzivă posibil”, a precizat Saxena.

Publicitate și alte recomandări video

Comentarii