Ghid AI
  • Despre
  • Glosar
  • Module
    • Concepte Fundamentele AI
  1. Fundamentele AI
  2. Studiu de caz
  • Fundamentele AI
    • Introducere
    • 1. Inteligența Artificială
    • 2. Date
    • 3. Algoritm
    • 4. Machine Learning
    • 5. Antrenament
    • 6. Pattern/Tipar
    • 7. Model AI
    • 8. Inferență
    • 9. Predicție
    • 10. Sistem AI
    • Studiu de caz

Pe această pagină

  • De la concepte la lumea reală
  • Ideea principală
  • Studiu de caz: „Predicția riscului de spargeri”
  • Ciclul de viață al unui proiect AI: 4 etape + rolul oamenilor
  • Recapitulare: toate conceptele din modul, în studiul de caz
  • Listă scurtă cu întrebări pentru reflecție
  • Puncte cheie
  1. Fundamentele AI
  2. Studiu de caz

Studiu de Caz & Recapitulare

De la concepte la lumea reală

În acest modul ai parcurs „linia de producție” a unui sistem AI: de la date și algoritmi până la rezultatele generate și utilizate în practică.

Acum facem un pas înapoi și le integrăm într-o imagine de ansamblu.

Un sistem AI

  • este restrâns, este construit pentru un scop specific;
  • implică oamenii în toate etapele: de la alegerea problemei care este potrivită pentru a fi „automatizată”, la selecția datelor, evaluarea performanței și interpretarea rezultatelor.

Ideea principală

Un sistem AI nu este „neutru” sau „complet automat”. Reprezintă o combinație de decizii umane + date + modele + procese.

Pe parcursul acestui modul am discutat despre date, modele și procese. Elementul comun tuturor este implicarea oamenilor în mod constant. De aceea, atunci când interacționăm cu un sistem AI, din rolul de dezvoltatori, utilizatori sau decidenți, apare o întrebarea:

Unde intervin alegerile umane și cum ne asigurăm că acestea conduc la rezultate corecte, utile și responsabile?


Studiu de caz: „Predicția riscului de spargeri”

Într-o instituție publică este adresată o întrebare practică:

„Cum putem reduce spargerile într-un cartier?”

Există mai multe răspunsuri posibile (campanii de informare, patrule suplimentare, iluminat public etc.). În acest studiu de caz, se decide dezvoltarea unui sistem AI cu un obiectiv clar:

  • Estimarea riscului de spargeri pe zone (ex. străzi/sectoare), pentru următoarele 7 zile, ca suport pentru planificarea măsurilor de prevenție.

Sistemul AI nu are rolul să „rezolve criminalitatea”. Doar produce o predicție pentru un tip de incident, într-un context definit.


Ciclul de viață al unui proiect AI: 4 etape + rolul oamenilor

%%{init: {'themeVariables': { 'fontSize': '18px', 'subGraphTitleFontSize': '22px', 'fontFamily': 'Open Sans' }}}%%
flowchart LR
    D1["<b>1 Proiectare<br>(ce construim și de ce)</b>"] --> D2["<b>2 Dezvoltare<br>(cum îl construim)</b>"]
    D2 --> D3["<b>3 Implementare<br>(cum îl lansăm <br>și controlăm)</b>"]
    D3 --> D4["<b>4 Utilizare<br>(cum este folosit<br> în decizii)</b>"]

    H1["<b>👤 Decizii umane<br>scop, reguli, limite</b>"] -.-> D1
    H2["<b>👤 Decizii umane<br>date, model, metrici</b>"] -.-> D2
    H3["<b>👤 Decizii umane<br>monitorizare, praguri,<br> audit</b>"] -.-> D3
    H4["<b>👤 Decizii umane<br>interpretare,<br> responsabilitate</b>"] -.-> D4

    style D1 fill:#CFE8F3,color:#000
    style D2 fill:#DCEDD9,color:#000
    style D3 fill:#FFF2D4,color:#000
    style D4 fill:#F8D5D4,color:#000

  • 1. Proiectare
  • 2. Dezvoltare
  • 3. Implementare
  • 4. Utilizare

În această etapă, oamenii decid dacă un sistem AI este o soluție potrivită pentru un obiectiv specific și, mai ales, ce anume trebuie să facă.

În studiul de caz:

  • Reprezentanții instituției publice definesc problema și obiectivul specific: estimarea riscului de spargeri pe zone, pentru următoarele 7 zile.
  • Sunt stabilite constrângeri și reguli:
    • ce date sunt disponibile și permise pentru utilizare,
    • ce variabile sunt considerate sensibile,
    • ce tip de rezultat este acceptabil (ex. „scor de risc + explicație” vs. „decizie automată”).

Unde poate apărea riscul:

  • dacă obiectivul este formulat greșit (ex. „cine va comite infracțiuni?”), sistemul devine nepotrivit pentru scop (și poate fi ilegal/etic problematic), riscant;
  • dacă „succesul” este definit prea restrâns (ex. doar acuratețe, fără a considera echitatea sau impactul), rezultatele pot fi nedrepte.

În această etapă se construiește „linia de producție” a sistemului AI care va produce predicții (rezultate): date → antrenament → model.

În studiul de caz:

  • Date: sunt colectate date istorice despre spargeri (locație, dată, tip incident), plus date de context (iluminat public, sezon etc.).
  • Tipare: sunt identificate relații recurente în date (ex. anumite zone prezintă vârfuri sezoniere).
  • Algoritm + Machine Learning: este aleasă abordarea (tipul de învățare automată) și metoda (algoritmul concret) folosită pentru învățare.
  • Antrenament: modelul este calibrat folosind datele istorice disponibile.
  • Model AI: rezultatul acestui proces este un set de parametri care permite estimarea riscului pentru zone și intervale de timp.

Unde apare riscul:

  • date incomplete (ex. sunt disponibile doar spargerile raportate, nu și alte tipuri de infracțiuni; sau unele zone sunt raportate mai frecvent decât altele);
  • bias (părtinire) introdus prin selecția datelor/variabilelor: dacă anumite zone sunt mai „vizibile” în date, modelul poate supraestima riscul asociat acestora;
  • supraîncredere în „scoruri”: modelul poate avea rezultate bune pe datele de testare, dar în utilizarea reală poate produce efecte nedorite, cum ar fi alarme excesive într-o zonă și alarme ratate în alta.

În această etapă modelul devine parte dintr-un sistem AI utilizat în activitatea zilnică: primește date noi, realizează inferență, produce predicții și este monitorizat continuu.

În studiul de caz:

  • Inferență: zilnic, modelul procesează date noi (ex. incidente recente, evenimente locale).
  • Predicție: produce un scor de risc (ex. „Zona A: risc 0.78”).
  • Sistem AI: integrează scorurile într-un tablou de bord, definește praguri de alertare, înregistrează deciziile și asigură securitatea și auditul.

Unde apare riscul:

  • efect de buclă (feedback loop): dacă sistemul produce mai multe „alerte” într-o anumită zonă, acea zona este verificată mai des → se raportează mai multe incidente → sistemul primește și mai multe date din aceeași zonă → pare că „a avut dreptate”, chiar dacă a amplificat o tendință din modul de colectare a datelor;
  • lipsa monitorizării: performanța sistemului se poate degrada atunci când contextul se schimbă (ex. se îmbunătățește iluminatul public, apar lucrări, se modifică tiparele sezoniere).

De aceea, utilizarea unui sistem AI presupune: - verificări periodice (compararea predicțiilor (rezultatelor) cu ce s-a întâmplat în realitate), - praguri de alertare (când erorile cresc peste un anumit nivel, automatizările sunt limitate sau oprite), - re-antrenarea modelului atunci când datele noi „nu mai seamănă” cu cele istorice.

În această etapă, predicțiile generate de sistem sunt interpretate de oameni și folosite în decizii reale.

În studiul de caz:

  • un utilizator poate interpreta scorul „risc 0.78” ca o certitudine;
  • o echipă poate folosi scorul ca un semnal în procesul de planificare (o abordare mai responsabilă), alături de informații din teren și de expertiza umană.

Unde apare riscul:

  • interpretare greșită: scorul reprezintă o estimare probabilistică, nu un adevăr cert (ex. „0.78” înseamnă „risc mai mare decât media”, nu „se va întâmpla sigur”);
  • decizii cu impact fără justificare: dacă nu putem explica de ce a fost generată o alertă (ce date au contat, ce limitări are modelul), deciziile devin greu de justificat, contestat și corectat;
  • confuzie între „asistent” și „decident”: sistemul poate sugera priorități sau semnala riscuri, dar responsabilitatea deciziilor rămâne la oameni (cine intervine, când și cu ce măsuri).

Recapitulare: toate conceptele din modul, în studiul de caz

Concept În studiul de caz Unde intervine omul (decizie)
AI Alegem să folosim AI ca sistem de suport Decidem dacă AI e potrivit vs. alternative mai bune
Date Incidente istorice + date de context Stabilim ce includem sau excludem, calitatea datelor și permisiuni de utilizare
Algoritm Metoda de calcul și învățare Alegem ce optimizăm (acuratețe, cost, echitate)
Machine Learning Învățare din exemple Alegerea tipului de ML și a setărilor
Antrenament „Calibrarea” pe date istorice Decidem când modelul este „suficient de bun” pentru utilizare
Tipar Sezonalitate / zone cu risc Evaluăm ce tipare sunt valide și ce reprezintă „zgomot” (semnale false)
Model AI Modelul care produce scoruri Acceptăm sau respingeam variabile și verificăm bias-ul (dacă sistemul tratează nedrept anumite grupuri sau zone)
Inferență Rulare zilnică pe date noi Decidem ce date sunt folosite și cum gestionăm datele lipsă
Predicție Scor risc + nivel de încredere Stabilim praguri: decizie automată vs. confirmare umană
Sistem AI Dashboard + audit + monitorizare Decidem cine vede rezultatele și ce mecanisme de control există

Listă scurtă cu întrebări pentru reflecție

Când lucrezi sau interacționezi cu un sistem AI în proiecte reale, întreabă-te:

  1. Scop: care este exact întrebarea la care răspunde sistemul?
  2. Date: ce lipsește din setul de date și ce ar putea distorsiona realitatea?
  3. Praguri & decizii: cine ia decizia finală, după ce criterii și în ce condiții (automat vs. confirmare umană)?
  4. Monitorizare: cum verificăm periodic dacă sistemul funcționează corect și nu produce părtiniri în timp?
  5. Responsabilitate: cine răspunde pentru impact și cum pot fi explicate rezultatele?

Puncte cheie

  • Un sistem AI este un lanț complet: date → antrenament → model → inferență → predicție → decizie în proces.
  • Un sistem AI este construit pentru o sarcină clar definită; nu este „inteligență generală”.
  • În toate cele 4 etape ale unui proiect AI (proiectare, dezvoltare, implementare, utilizare), oamenii fac alegeri care modelează comportamentul și impactul sistemului.

← Sistem AI

Înapoi la modul →

Back to top