Politica privind folosirea inteligenței artificiale pe InfoAs

În ultimii ani, agenții de inteligență artificială (AI) precum ChatGPT, Claude, sau Gemini au început să fie folosiți din ce în ce mai des în învățarea materiei și în rezolvarea problemelor de informatică.

Deși inteligența artificială reprezintă o unealtă foarte folositoare, considerăm că în contextul învățării unei materii precum informatica, utilizarea ei ar trebui să se limiteze la a sprijini procesul educațional, nu la a-l înlocui: ca un mentor virtual, care îndrumă, nu rezolvă problemele pentru elevi. Scopul materiei școlare este de a înțelege cum funcționează diferiți algoritmi și structuri de date de bază, iar această bază de cunoștințe este mai apoi folosită în învățământul superior sau în câmpul de muncă în crearea unor programe complexe. Astfel, chiar și dacă un elev înțelege cod generat, lipsa rutinei de a scrie de mână algoritmii învățați și de a prelucra tipuri de date creează carențe care poartă ca și consecință proasta înțelegere a materiei mai avansate.

Folosirea inteligenței artificiale pentru rezolvarea problemelor de informatică

InfoAs nu interzice folosirea inteligenței artificiale pentru a rezolva problemele de informatică de pe platformă în timpul unei 'sesiuni de pregătire individuală'. Numim 'sesiune de pregătrie individuală' o sesiune în care un utilizator nu rezolvă probleme ca parte dintr-o temă, dintr-un test, dintr-un concurs online sau orice altă metodă (formală sau informală) de evaluare.

Folosirea inteligenței artificiale în cadrul unei evaluări (formale sau informale) este strict interzisă și poate aduce ca și consecință restricționarea sau ștergerea contului de utilizator.

Trebuie în permanență ținut cont că niciun vizitator sau utilizator al platformei nu are dreptul de a copia enunțurile problemelor sub InfoAs Standard License, nici măcar pentru a le putea da agenților AI.

InfoAs descurajează folosirea inteligenței artificiale. Sistemele noastre funcționează permanent pentru a detecta folosirea AI în soluții, iar există posibilitatea ca soluțiile vizate să nu fie luate în considerare în statisticile de performanță a utilizatorilor (cum ar fi numărul de probleme rezolvate, rata de succes, etc.)

În orice moment, platforma își rezervă dreptul de a schimba această politică. Vă îndemnăm să verificați continuu schimbările paginii pentru a înțelege regulile platformei, cât și perspectiva noastră asupra acestei teme.

Detectarea surselor care folosesc inteligența artificială

În cazul în care sistemul nostru automat detectează utilizarea inteligenței artificiale, un mesaj poate fi afișat pe pagina soluției, descriind acest aspect.

Mesajul este pur informativ și nu poartă nicio consecință din partea platformei (de exemplu, punctajul rămâne același), însă profesorii unui elev sau comitetul unui concurs pot lua măsuri în acest sens, întrucât rezultatele analizei sunt publice.

Sistemul este automat și urmărește indicatori precum stilul de redactare a soluției, dar și diferențe de stil între soluții diferite ale unui utilizator. Astfel, am observat o acuratețe ridicată a rezultatelor analizelor pe un set mare de surse deja existente. Există desigur întotdeauna o posibilitate ca rezultatul să fie unul eronat, caz în care vă îndemnăm să ne contactați pentru a putea investiga mai departe.

Cercetările noastre

Până în prezent, am analizat sute de întrebări și răspunsuri cu diferiți agenți AI și am observat că răspunsurile lor sunt deseori incomplete, nenaturale, sau pur și simplu greșite, de regulă din cauza faptului că agenții nu fac distincție între diferitele capitole de informatică, sau nu înțeleg cu adevărat cerințele, în special în limba română. De pildă, mulți agenți tind să valideze datele de intrare, lucru care nu este necesar: dacă într-o problemă se specifică faptul că o valoare n este între 1 și 1.000.000.000, atunci nu trebuie să existe o verificare de genul:

if (n < 1 || n > 1000000000) {
    return 0;
}

Similar, există și alte anomalii pe care agenții le produc, cum ar fi folosirea excesivă (sau exclusivă) a structurilor vector din STL în loc de tablouri unidimensionale (care adesea sunt numite colocvial la fel), verificarea fluxurilor de intrare și ieșire, precum și altele.

Elevii care folosesc inteligența artificială pentru scrierea de cod tind să nu poată să reproducă cod, lucru care este confirmat și de alte studii. Convenabil este însă faptul că programele scrise de inteligența artificială tind să fie corecte, dar să aibă subtilități aparte pe care un ochi antrenat (sau un sistem decent de anti-plagiere) le poate observa imediat, mai ales în contextul cerințelor din tiparul sistemului educațional românesc.

Cuvinte finale

InfoAs este în fond o simplă unealtă educativă care verifică corectitudinea și eficiența programelor scrise de elevi și alți pasionați de informatică. Platforma poate fi folosită în orice mod pentru pregătire individuală, însă vrem să ne asigurăm că în contextul academic, corectitudinea are prioritate. De aceea, luăm măsuri pentru a analiza și înțelege cum este folosită platforma, pentru a asigura calitatea învățământului utilizatorilor noștri.

Alte articole din serie