-
Petri: Nyílt forráskódú eszköz az AI biztonsági kutatások felgyorsítására
Az egyre fejlettebb mesterséges intelligencia rendszerek biztonságos működésének vizsgálata komoly kihívásokat rejt magában, hiszen a modellek viselkedése rendkívül összetett és sokrétű lehet. Ennek kezelésére fejlesztette ki az Anthropic kutatócsapata a Petri nevű nyílt forráskódú auditáló eszközt, amely automatizált módon segíti a szakembereket a különféle AI viselkedési mintázatok gyors és hatékony feltérképezésében. A Petri célja, hogy jelentősen leegyszerűsítse és felgyorsítsa az AI modellek biztonsági értékelését, ezáltal hozzájárulva a megbízhatóbb és etikusabb mesterséges intelligenciák fejlesztéséhez. Hogyan működik a Petri? A Petri egy automatizált ügynököt alkalmaz, amely többfordulós, szimulált beszélgetéseken keresztül teszteli a cél AI rendszert különféle helyzetekben. Ezek a párbeszédek nemcsak a felhasználói interakciókat, hanem különböző eszközhasználatot is modelleznek, így komplex környezetben…