OpenAI shtrëngon politikat: më shumë siguri, më pak rrezik

Me 29 Tetor, OpenAI publikoi versionin e ri të “Usage Policies” – dhe ndryshimet janë të qarta: kufizim më i fortë i zonave të rrezikshme, më shumë kujdes ndaj fushave profesionale, dhe më shumë mbështetje për njerëz që mund të jenë në gjendje të vështirë emocionale.

Sipas kompanisë, synimi është i thjeshtë: siguri dhe reduktim i dëmit.

Por shumë analistë të industrisë e lexojnë ndryshe këtë lëvizje: më pak rrezik ligjor për OpenAI dhe më shumë në një treg ku rregullat (sidomos në SHBA dhe BE) po bëhen çdo ditë më të ashpra.

Çfarë ndalohet tani më qartësisht?

OpenAI thotë hapur se modelet e tyre (përfshirë ChatGPT) nuk duhet të japin më këshilla profesionale në fusha me rrezik të lartë, si:

  • Mjekësi / diagnoza
  • Ligj
  • Financa
  • Vendime të rëndësishme në arsim

Gjithashtu ndalimi për identifikim fytyrash pa pëlqim tani është vendosur shumë i qartë në dokument.

Pse e bën këtë OpenAI?

Dy arsye kryesore:

  1. Siguria reale – modelet mund të gabojnë, dhe gabimi në mjekësi ose ligj mund të sjellë dëme të mëdha.
  2. Rreziku ligjor – sa më i qartë të jetë dokumenti, aq më pak rrezik që OpenAI të goditet në gjykata kur dikush përdor modelin gabim.

Kjo është ajo pjesë që analistët e shohin: kompania “rritet” dhe bashkë me rritjen vjen edhe nevoja për të ulur rrezikun.

Më shumë mbështetje për njerëzit në kriza emocionale

Një risi tjetër: politikat e reja e theksojnë trajtim më të kujdesshëm të situatave me shëndet mendor.

Jo diagnozë, jo terapi profesionale.

Por: empati, udhëzim i përgjithshëm korrekt, dhe sugjerim i burimeve të sigurta.

Çfarë do të thotë kjo për përdoruesit?

Do shohim më shumë:

  • “Nuk mund ta bëj këtë”
  • më shumë pyetje për kontekst
  • më shumë theks te “këshilla gjenerike” jo te vendimmarrjet

Do shohim më pak:

  • përgjigje të drejtpërdrejta mjekësore
  • analiza ligjore të thella
  • vendime përpara emrit të përdoruesit

Përfundim

Kjo është një fazë e re për IA-në publike.

OpenAI nuk po “dobëson” ChatGPT-në.

Përkundrazi, po bën një kalibrim drejt përdorimit të përgjegjshëm, në një kohë kur ligjet po ngushtohen dhe pritshmëritë e shoqërisë po rriten.

Kjo do të thotë se IA do të jetë ende e fuqishme, por me më shumë “gardhe” rreth zonave sensitive.