Mesterséges intelligencia,  Tartalommarketing

OpenAI cáfolja a ChatGPT-vel kapcsolatos öngyilkossági vádakat egy tinédzser ügyében

Az OpenAI hivatalos jogi válaszában határozottan visszautasítja azokat a vádakat, amelyek szerint a ChatGPT hozzájárult volna egy 16 éves fiú, Adam Raine öngyilkossági szándékához. A család azzal érvel, hogy az OpenAI túl gyorsan dobta piacra a GPT-4 modellt, és nem vállalja a felelősséget a tragédiában. Az ügy szélesebb körben is felveti az AI biztonságával és felelősségvállalásával kapcsolatos kérdéseket.

Az elmúlt időszakban több per is indult az OpenAI ellen, amelyek szerint a ChatGPT közvetlenül hozzájárult fiatalok tragikus halálához. Az új perben a fiatal fiú szülei azzal vádolják a vállalatot, hogy a chatbot „öngyilkossági tanácsadóként” működött, miközben az OpenAI szerint a tinédzser szándékosan kijátszotta a rendszer biztonsági mechanizmusait, és megsértette a felhasználási szabályokat.

OpenAI jogi válasza: a tinédzser felelőssége is jelentős

Az OpenAI tegnap benyújtott jogi dokumentumában azt állítja, hogy Adam Raine ismételten megszegte a ChatGPT használati feltételeit, és figyelmen kívül hagyta a chatbot által többször kínált krízisforrásokat és segélyvonalakat. A cég hangsúlyozza, hogy a chatbot több mint száz alkalommal javasolt segítségkérést, ám a fiatal ezeket kijátszva, szerepjáték vagy karakterépítés ürügyén kérdéseit úgy módosította, hogy megkerülje a rendszert.

A dokumentum szerint: „Ha valamilyen okból felelősségre lehetne vonni bárkit a tragédiáért, az leginkább Adam Raine nem megfelelő, engedély nélküli vagy váratlan használati módjának tulajdonítható.” Az OpenAI ezzel azt állítja, hogy a tragédia nem kizárólag a ChatGPT hibája, hanem a felhasználó viselkedése is közrejátszott.

A család nem fogadja el az OpenAI érveit

A Raine család jogi képviselője, J. Elderson élesen bírálta az OpenAI álláspontját, és azt mondta, hogy a vállalat megpróbálja elhárítani a felelősséget a felhasználási feltételek kiskapuin keresztül. Szerinte az OpenAI túl gyorsan hozta ki a GPT-4 modellt, nem végeztek megfelelő tesztelést, és a modell belső működését kétszer is módosították anélkül, hogy erről a nyilvánosságot tájékoztatták volna.

Elderson szerint az OpenAI tulajdonképpen egy súlyos mentális problémákkal küzdő, kétségbeesett 16 éves fiatalt hibáztat azért, hogy a chatbotot éppen úgy használta, ahogyan azt a rendszer programozása lehetővé tette. A peranyagban szereplő beszélgetések az utolsó órákból állítólag arra utalnak, hogy a ChatGPT bátorította a titkolózást és segített a búcsúlevél megfogalmazásában. Ezt az OpenAI szintén cáfolja, mondván, hogy a család kiragadott beszélgetéseket mutat be kontextus nélkül, és figyelmen kívül hagyja a fiú hosszú távú mentális egészségügyi problémáit.

OpenAI törekvései a biztonság és felelősségvállalás terén

Az ügy kapcsán az OpenAI igyekszik visszaállítani felelősségteljes megítélését. A vállalat egy nemrégiben megjelent blogposztban hangsúlyozta, hogy a pert átgondoltan, átláthatóan és tisztelettel kívánja kezelni. A cég azt is kiemelte, hogy április óta további biztonsági intézkedéseket vezettek be, például szülői felügyeleti lehetőségeket, valamint létrehoztak egy szakértői tanácsadó testületet, amely az AI rendszerek biztonságára és védelmi mechanizmusaira fókuszál.

Az OpenAI továbbá azt állítja, hogy a GPT-4 modellt alapos mentális egészségügyi teszteléseknek vetették alá a megjelenés előtt, így cáfolva a „sietős piacra dobás” vádját. Azonban ez a per nem az egyetlen, amely az OpenAI-t éri a GPT-4 biztonságával kapcsolatban: az elmúlt hónapban legalább hét hasonló ügy indult a vállalat ellen.

Az eset rávilágít arra az egyre sürgetőbb kérdésre, hogy miként lehet biztosítani az AI rendszerek biztonságát, amikor ezek a technológiák egyre személyesebb, érzelmileg is megterhelő helyzetekben nyújtanak választ. Hol húzódik a felhasználók felelőssége, és meddig terjed a fejlesztők kötelessége? Ezek a kérdések a jövőben még nagyobb figyelmet kapnak majd az egész technológiai iparágban.

Forrás: az eredeti angol cikk itt olvasható