Generează răspunsuri generale, fluente, rapide.
ChatGPT este ca un elev foarte vorbăreț, care știe multe lucruri, dar nu îți arată de unde le știe.
Este ChatGPT cu reguli, roluri și limite stabilite de om.
GPTs sunt ca un asistent didactic care respectă instrucțiuni clare: ce are voie să facă și ce nu.
Lucrează doar cu documentele încărcate de utilizator.
introducerea unui subiect nou
explicarea pe înțelesul elevilor
brainstorming
formularea de exemple
reflecție ghidată
sprijin pentru profesori
structurarea gândirii (întrebări bune)
formare, nu evaluare
analiză de texte
studii de caz reale (ex. AIID – Amazon)
educație civică și etică
lucru cu dovezi și surse
să fie sursă finală de adevăr
să fie folosit fără verificare
să înlocuiască gândirea elevilor
nu elimină biasul automat
calitatea depinde de cum este proiectat
poate genera în continuare din cunoștințe generale
nu răspunde dacă informația nu e în surse
Rol pedagogic: declanșator de discuție
Competență dezvoltată: alfabetizare AI + gândire critică
Rol pedagogic: mediator de învățare
Competență dezvoltată: autoreglare, reflecție, etică AI
Rol pedagogic: instrument de gândire critică
Competență dezvoltată: analiză, argumentare, responsabilitate
❌ „Care AI este mai bun?”
✅ „Ce tip de gândire vreau să dezvolt?”
curiozitate =:> ChatGPT
reflecție ghidată =:> GPTs
analiză critică =:> NotebookLM
AI nu este o unealtă neutră.
Alegerea tipului de AI este o decizie pedagogică și etică.
Verifică
întreabă pe oricare dintre acești agenți:
Care sunt cadrele de referință pe care le folosești?
Cum mă poți ajuta în demersul meu educațional?
nu există „un AI bun pentru toate”
alegerea instrumentului este o decizie pedagogică
educația are nevoie de: transparență, responsabilitate și control uman
Competență-cheie
Să știm când și de ce folosim fiecare tip de AI.
Acest ghid de studiu este conceput pentru a explora complexitatea sistemelor de inteligență artificială (IA), folosind studiul de caz al algoritmului de recrutare de la Amazon pentru a ilustra concepte cheie precum biasul de date, discriminarea algoritmică și importanța reglementărilor etice și legale.
--------------------------------------------------------------------------------
Chestionar: Testarea Cunoștințelor
Răspundeți la următoarele întrebări în 2-3 propoziții, bazându-vă exclusiv pe informațiile din contextul sursă.
1. Din ce motive practice a decis Amazon în 2014 să dezvolte un algoritm de IA pentru recrutare?
2. Pe ce tip de date a fost antrenat algoritmul de recrutare Amazon și care a fost problema fundamentală a acestor date?
3. Cum a manifestat algoritmul un comportament discriminatoriu față de femei, deși variabila „gen” nu a fost introdusă explicit în sistem?
4. De ce încercările inginerilor de a „repara” algoritmul prin ajustări tehnice nu au avut succes?
5. Care a fost decizia finală a companiei Amazon cu privire la sistemul de recrutare bazat pe IA și ce semnificație a avut această decizie?
6. Ce dezvăluie cazul Amazon despre conceptul de „neutralitate tehnologică” în contextul inteligenței artificiale?
7. De ce legislația europeană, precum Regulamentul privind IA (AI Act), consideră sistemele de recrutare automată ca fiind „cu risc ridicat”?
8. Care este scopul principal al Regulamentului privind Inteligența Artificială (AI Act) al Uniunii Europene?
9. Conform recomandărilor UNESCO, ce implică principiul „Supravegherii și determinării umane” în utilizarea sistemelor de IA?
10. Explicați principiul UNESCO privind „Corectitudinea și nediscriminarea” în contextul dezvoltării aplicațiilor de IA.
--------------------------------------------------------------------------------
Cheia Răspunsurilor
Din ce motive practice a decis Amazon în 2014 să dezvolte un algoritm de IA pentru recrutare? Amazon se confrunta cu o creștere accelerată, ceea ce a generat un volum foarte mare de CV-uri. Echipa de resurse umane avea puțin timp la dispoziție și era sub presiune mare, astfel că un algoritm de IA a fost văzut ca o soluție mai rapidă, mai eficientă și, în mod naiv, mai obiectivă decât selecția umană.
Pe ce tip de date a fost antrenat algoritmul de recrutare Amazon și care a fost problema fundamentală a acestor date? Algoritmul a fost antrenat folosind CV-uri istorice, adică profilurile angajaților considerați de succes în trecut. Problema fundamentală a fost că industria tehnologică fusese dominată istoric de bărbați, ceea ce a creat un set de date părtinitor (biasat) care asocia succesul cu profilurile masculine.
Cum a manifestat algoritmul un comportament discriminatoriu față de femei, deși variabila „gen” nu a fost introdusă explicit în sistem? Algoritmul a învățat să asocieze performanța cu masculinitatea analizând subtilitățile din date. Acesta a început să depuncteze CV-urile care conțineau expresii precum „women's chess club” sau „women's leadership program” și să claseze candidatele cu competențe similare bărbaților pe poziții inferioare.
De ce încercările inginerilor de a „repara” algoritmul prin ajustări tehnice nu au avut succes? Corecțiile tehnice au eșuat deoarece problema nu era o simplă eroare de cod, ci o problemă profundă legată de datele părtinitoare și contextul social. Algoritmul nu făcea altceva decât să automatizeze și să amplifice o inegalitate deja existentă în societate și în datele de antrenament.
Care a fost decizia finală a companiei Amazon cu privire la sistemul de recrutare bazat pe IA și ce semnificație a avut această decizie? Amazon a luat decizia de a abandona complet sistemul, care nu a fost niciodată utilizat oficial în procesul de recrutare. Această decizie este considerată un act de responsabilitate, iar cazul a devenit un exemplu documentat de discriminare algoritmică și risc major în sistemele cu impact asupra drepturilor omului.
Ce dezvăluie cazul Amazon despre conceptul de „neutralitate tehnologică” în contextul inteligenței artificiale? Cazul demonstrează că inteligența artificială nu este neutră. Tehnologia reflectă și poate chiar amplifica nedreptățile și biasurile existente în datele pe care este antrenată, arătând că simpla eliminare a unei variabile evidente (precum genul) nu elimină discriminarea.
De ce legislația europeană, precum Regulamentul privind IA (AI Act), consideră sistemele de recrutare automată ca fiind „cu risc ridicat”? Aceste sisteme sunt considerate „cu risc ridicat” deoarece pot avea un impact major asupra drepturilor fundamentale ale oamenilor. O decizie algoritmică de angajare poate dezavantaja în mod inechitabil o persoană, iar lipsa de transparență face dificilă evaluarea corectitudinii deciziei.
Care este scopul principal al Regulamentului privind Inteligența Artificială (AI Act) al Uniunii Europene? Scopul principal al Regulamentului privind IA este de a promova dezvoltarea unei inteligențe artificiale de încredere în Europa. Acesta stabilește un cadru juridic bazat pe riscuri pentru a garanta siguranța cetățenilor, a proteja drepturile fundamentale și a aborda provocările specifice pe care le aduc sistemele de IA.
Conform recomandărilor UNESCO, ce implică principiul „Supravegherii și determinării umane” în utilizarea sistemelor de IA? Acest principiu subliniază că un sistem de inteligență artificială nu poate și nu trebuie să înlocuiască niciodată responsabilitatea umană finală. Oamenii trebuie să păstreze controlul și să fie răspunzători pentru deciziile luate cu ajutorul tehnologiei.
Explicați principiul UNESCO privind „Corectitudinea și nediscriminarea” în contextul dezvoltării aplicațiilor de IA. Acest principiu stipulează că beneficiile inteligenței artificiale trebuie să fie accesibile tuturor membrilor societății. În plus, aplicațiile de IA trebuie proiectate și implementate astfel încât să evite în mod activ discriminarea și perpetuarea părtinirilor (biasurilor) sociale.
--------------------------------------------------------------------------------
Situații de Tip Eseu
Următoarele întrebări sunt concepute pentru a încuraja reflecția critică și analiza aprofundată a temelor din material. Nu se oferă răspunsuri, scopul fiind dezvoltarea argumentelor proprii.
Analizați diferența dintre o „eroare de cod” și o „eroare de sistem” folosind cazul algoritmului Amazon ca exemplu central. Discutați de ce problemele sociale complexe nu pot fi rezolvate doar prin soluții tehnice.
Dezvoltați un argument pe baza afirmației: „Dacă IA învață din trecut, cine este responsabil pentru viitorul pe care îl construiește?”. Legați răspunsul de importanța competențelor civice, a supravegherii umane și a reglementărilor precum AI Act.
Explicați, pe baza studiului de caz, cum poate un algoritm să producă rezultate discriminatorii chiar și atunci când variabile sensibile, precum genul, sunt eliminate din setul de date. Utilizați conceptele de „discriminare indirectă” și „bias de date” pentru a vă structura răspunsul.
Argumentați de ce decizia Amazon de a abandona algoritmul de recrutare ar trebui considerată un act de guvernanță responsabilă, și nu un eșec tehnologic. Luați în considerare principiile etice ale UNESCO și riscurile identificate în AI Act.
Evaluați potențialele pericole ale antrenării unui sistem de IA pe date istorice dintr-o instituție socială, cum ar fi notele elevilor sau deciziile de sancționare dintr-o școală. Ce tip de inegalități ar putea amplifica un astfel de algoritm și ce măsuri de protecție ar fi necesare pentru a asigura echitatea?
--------------------------------------------------------------------------------
Glosar de Termeni Cheie (Termen și Definiție)
Bias de date
O problemă care apare atunci când datele folosite pentru antrenarea unui algoritm de IA reflectă inegalități sau prejudecăți istorice și sociale. În cazul Amazon, datele proveneau dintr-o industrie dominată de bărbați, ceea ce a dus la un bias împotriva femeilor.
Discriminare algoritmică
Situația în care un sistem de IA ia decizii care dezavantajează în mod sistematic anumite grupuri de persoane. Aceasta este adesea o consecință directă a biasului de date.
Discriminare indirectă
O formă de discriminare care nu este explicită. Deși algoritmului Amazon nu i s-a specificat genul, el a învățat să penalizeze cuvinte și expresii asociate cu femeile, ducând la un rezultat discriminatoriu.
Regulamentul privind IA (AI Act)
Primul cadru juridic cuprinzător la nivel mondial privind inteligența artificială, creat de Uniunea Europeană. Acesta stabilește norme bazate pe riscuri pentru a promova o IA de încredere, care să garanteze siguranța și drepturile fundamentale.
Sisteme cu risc ridicat
O categorie definită în legislația europeană (AI Act) pentru sistemele de IA care pot avea un impact semnificativ asupra drepturilor și siguranței oamenilor. Sistemele de recrutare automată intră în această categorie.
Etica Inteligenței Artificiale
Un set de principii și valori, precum cele formulate de UNESCO, menite să ghideze dezvoltarea și utilizarea responsabilă a IA. Acestea includ corectitudinea, nediscriminarea, transparența și supravegherea umană.
Supraveghere și determinare umană
Un principiu etic fundamental (UNESCO) care stipulează că responsabilitatea finală pentru deciziile luate cu ajutorul IA aparține întotdeauna oamenilor. Tehnologia nu poate înlocui răspunderea umană.
Transparență și explicabilitate
Un principiu etic (UNESCO) care cere ca procesul decizional al unui sistem de IA să poată fi înțeles și explicat. Acest lucru este esențial pentru a evalua corectitudinea și a identifica eventualele biasuri.