Inteligența artificială (AI) este domeniul informaticii care proiectează sisteme capabile să îndeplinească sarcini ce cer, în mod normal, inteligență umană, cum ar fi percepția, înțelegerea limbajului, învățarea din date, raționamentul, planificarea și luarea deciziilor.
AI este un set de instrumente digitale care pot sprijini predarea prin generarea de idei, explicații alternative, exerciții si feedback, dar care pot greși și trebuie verificate. În școală, AI funcționează cel mai bine ca partener de clarificare și reflecție, iar profesorul rămâne responsabil pentru obiective, reguli, context și evaluarea gândirii elevului.
AI este un „coleg de studiu” care te poate ajuta să înțelegi mai bine, să vezi mai multe variante, să găsești greșeli în argumente și să îți îmbunătățești textele, dacă îl folosești cu întrebări bune și verifici informațiile. Nu este o sursă sigură de adevăr și nu îți poate înlocui raționamentul, tu alegi ce păstrezi, ce respingi și de ce.
AI este o tehnologie care poate susține învățarea acasă prin explicații pe înțelesul copilului, exerciții și feedback, însă necesită reguli simple ca să nu devină dependență sau copiere. Cel mai important este să urmăriți procesul, cum a ajuns copilul la răspuns, ce a verificat, ce a schimbat, ce a învățat, nu doar rezultatul final.
1950 – Alain Turing publică articolul „Computing Machinery and Intelligence” și propune Testul Turing: dacă, într-o conversație prin text, un om nu își poate da seama dacă vorbește cu un alt om sau cu o mașină, atunci putem spune că acea mașină „gândește”.
1956 – La conferința de vară de la Dartmouth, John McCarthy, Marvin Minsky propun termenul „inteligență artificială” și lansează ideea că aspecte ale învățării și inteligenței pot fi simulate de mașini. Evenimentul este considerat începutul oficial al domeniului AI, cu o direcție clară pentru viitoarele decenii.
1958 - Frank Rosenblatt propune perceptronul, una dintre primele idei de rețea neuronală care se poate antrena din exemple. Perceptronul este un model simplu care combină intrări cu ponderi și învață să le ajusteze pentru a separa clasele, adică să ia decizii de tip „da” sau „nu” pe baza datelor. A devenit un reper pentru învățarea automată, chiar dacă varianta inițială avea limite importante, rezolvând doar probleme separabile liniar.
1966 - A fost creată ELIZA, de Joseph Weizenbaum la MIT, devine primul chatbot cu adevărat faimos. Funcționa pe reguli și potrivire de tipare, fără înțelegere reală a sensului, iar scenariul DOCTOR imita un terapeut prin întrebări și reformulări. Mulți utilizatori au perceput-o ca empatică sau inteligentă, deși era doar automatizare.
1969 – Marvin Minsky și Seymour Papert publică o analiză critică a perceptronilor, arătând că modelele cu un singur strat au limite fundamentale și nu pot rezolva unele probleme simple, precum funcția XOR, fără straturi suplimentare. Cartea a redus entuziasmul și finanțarea pentru rețelele neuronale pentru o perioadă, contribuind la ceea ce este numit prima „iarnă AI” în zona neurală.
1972 – Terry Winograd creează SHRDLU, un sistem care înțelege comenzi în limbaj natural și le execută într-o „lume” simplificată de blocuri. Utilizatorul putea cere mutări și putea pune întrebări despre poziții și relații, iar sistemul răspundea coerent pentru că lucra într-un domeniu restrâns, cu reguli clare și o reprezentare internă a obiectelor. SHRDLU a devenit un reper pentru cercetarea în limbaj natural și raționament în medii controlate.
1980 - Sistemul expert XCON de la Digital Equipment Corporation (DEC) a automatizat configurarea comenzilor de calculatoare, demonstrând clar valoarea comercială a AI în industrie. Până în 1986, XCON procesase peste 80.000 de comenzi cu o acuratețe de 95–98% și era estimat că economisea aproximativ 25 de milioane de dolari pe an pentru DEC, prin reducerea erorilor de configurare, accelerarea asamblării și eliminarea unei etape finale de testare înainte de livrare.
2006 – Geoffrey Hinton și colegii săi arată că rețelele „deep learning” pot fi antrenate eficient dacă folosești o strategie nouă pentru vremea aceea, pre-antrenare pe straturi, urmată de ajustare finală cu date etichetate. Rezultatul a repornit interesul pentru „deep learning”, pentru că a redus problemele clasice de antrenare ale rețelelor cu multe straturi și a deschis drumul către progresele majore din anii următori.
2009 – Este introdus ImageNet, un set de date la scară foarte mare, cu milioane de imagini etichetate, organizate pe categorii. A devenit rapid un reper pentru evaluarea recunoașterii vizuale, deoarece a oferit un benchmark comun și comparabil, accelerând progresul în viziune computerizată și în rețele neuronale profunde.
2012 – AlexNet câștigă competiția ImageNet cu un avans mare și schimbă direcția domeniului. Modelul, realizat de Ilya Sutskever și Geoffrey Hinton, a folosit “deep convolutional neural networks” antrenare accelerată pe GPU-uri și tehnici care au îmbunătățit generalizarea, demonstrând că deep learning poate depăși clar metodele clasice la recunoaștere vizuală.
2014 – Sunt propuse Generative Adversarial Networks (GAN), deschizând o nouă clasă de modele generative pentru imagini realiste. Un GAN antrenează două rețele în paralel, un generator care produce imagini și un discriminator care încearcă să detecteze falsurile, iar competiția dintre ele împinge calitatea tot mai sus. Această idee a accelerat puternic sinteza și editarea de imagini, inclusiv transferul de stil.
2016 – AlphaGo, sistemul DeepMind, îl învinge pe Lee Sedol, unul dintre cei mai puternici jucători de Go din lume. A fost un moment de referință deoarece Go are un spațiu uriaș de posibilități, greu de abordat prin reguli simple. AlphaGo a combinat rețele neuronale profunde cu căutare și antrenare prin auto-joc.
2017 – Arhitectura Transformer este introdusă în lucrarea „Attention is All You Need”, punând bazele modelelor mari de limbaj moderne (LLM) care pot conversa, rezuma, traduce și explica pe înțelesul oamenilor. Ideea principală este că modelul poate „acorda atenție” părților importante dintr-o propoziție sau dintr-un text lung, ca să înțeleagă mai bine contextul.
2018 – Geoffrey Hinton, și Yann LeCun primesc Premiul Turing, echivalentul Nobelului în informatică, pentru dezvoltarea rețelelor neuronale profunde (deep neural networks).
2020 – GPT-3 a arătat că un singur LLM poate rezolva multe sarcini dacă îi dai instrucțiuni clare și câteva exemple direct în mesaj, fără să fie reantrenat pentru fiecare cerință. Această abilitate, a făcut posibil ca același model să scrie, să rezume, să traducă și să explice, doar pe baza limbajului natural și a contextului oferit.
2021 – AlphaFold a ajuns la o precizie foarte ridicată în prezicerea formei 3D a proteinelor, în multe cazuri comparabilă cu metodele experimentale. A fost un progres major deoarece structura unei proteine influențează direct funcția ei, iar obținerea acestei forme în laborator poate dura mult și are costuri foarte mari.
2022 – OpenAI lansează ChatGPT, o interfață conversațională construită pe arhitectura GPT și fine-tunată cu feedback uman, iar AI intră în conștiința publicului larg. În câteva zile, milioane de utilizatori vorbeau cu sistemul, folosindu-l pentru orice, de la scriere de cod la compunere de poezii.
2023 – Modelele cu scop general precum GPT-4, Claude și Gemini depășesc zona de chat simplu, devenind motoare puternice pentru raționament, programare și înțelegere multimodală peste text, imagini și altele.
2024 – Modelele multimodale și de „gândire” de frontieră devin mainstream:
GPT-4o aduce voce și vedere în timp real în asistenți, în timp ce modelele de raționament de tip o1 se concentrează pe rezolvarea mai lentă, pas cu pas, a problemelor de matematică, cod și știință. Claude 3, Gemini 2.0 și Llama 3 extind accesul la aceste capabilități.
2025 - 2026 – Accentul se mută pe AI unificată, agentică, și pe raționament la scară:
GPT-5, Gemini 2.5, Claude 4, Haiku 4.5 și Llama 4 pun accent pe planificare, utilizarea de unelte și o înțelegere multimodală bogată peste text, cod, imagini, audio și video, făcând ca AI să se simtă mai puțin ca un simplu chatbot și mai mult ca un coleg digital configurabil.
Sursa: Alexandru Dan @ TVL Tech, în cadrul webinarului ICD AI School, dedicat profesorilor din învățământul gimnazial și liceal, directorilor școli, ONG-uri educaționale, elevilor de liceu, studenților, inspectoratelor școlare.