Frissítve: 15 perce·Ma: 50
Szabályozás
AI által generált szöveg

Az Anthropic felülvizsgálja a biztonsági elveit, miután a verseny fokozódik a szektorban

A Claude chatbotot korábban csalásokhoz és kártékony szoftverek létrehozásához használták fel, és nemrég mexikói kormányzati adatok ellopására használták – közölték a kiberbiztonsági szakértők.

Az Anthropic felülvizsgálja a biztonsági elveit, miután a verseny fokozódik a szektorban
Fotó: Growtika / Unsplash
Forrás: AI Now InstituteSzerző: AI Forradalom szerk.
Megosztás

Heidy Khlaaf, a független kutatócsoport, az AI Now Institute vezető AI szakértője szerint az Anthropic mindig is elégtelennek bizonyult a humán károk megelőzésében, annak ellenére, hogy biztonságelvű hírnevet szerzett magának.

Az Anthropic egyik küldetése, hogy felfedezze és megértse, hogyan működnek belsőleg a nagy nyelvi modellek, mint az AI-biztonság és a pozitív eredmények alapja — írja az Anthropic.

Khlaaf szerint az Anthropic corporate social responsibility modellként működik — önkéntes vállalatokon alapul, nem kötelező szabályozáson, és ez elégtelennek bizonyult a valós károk megelőzéséhez.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom