Frissítve: 15 perce·Ma: 50
Szabályozás
AI által generált szöveg

Az Anthropic visszavonta ígéreteit: a biztonság mostantól csak cél

Holden Karnofsky, az Anthropic egyik vezetője, a változásokat szorgalmazta, mondván, a korábbi stratégia hibás volt.

Az Anthropic visszavonta ígéreteit: a biztonság mostantól csak cél
Fotó: Albert Stoynov / Unsplash
Forrás: LessWrong AISzerző: AI Forradalom szerk.
Megosztás

Az Anthropic, a vezető AI-fejlesztő cég, visszavonta korábbi biztonsági ígéreteit. Holden Karnofsky, az Anthropic egyik vezetője, a változásokat szorgalmazta, mondván, a korábbi stratégia hibás volt. A cég korábban azt ígérte, hogy nem fogja használni a veszélyes méretű modelleket, de most az új szabályzatban ezt a kötelezettséget elhagyta.

Az Anthropic Responsible skálázás Policy v3-nak nevezett új szabályzatban a cég mostantól csak célként fogja kezelni a biztonságot, de nem kötelezi el magát, hogy ne használjon veszélyes modelleket. A változás oka a verseny, mivel a cég úgy ítéli meg, hogy ha ők nem használnak ilyen modelleket, akkor mások fogják megtenni, és ez nem fogja növelni a biztonságot.

Az új szabályzatban az Anthropic hangsúlyozza, hogy továbbra is fontosnak tartja a biztonságot, de mostantól inkább az aspirációs célokat fogja követni, mint a korábbi kötelezettségeket. A cég szerint ez a megközelítés jobban segíti a biztonságos fejlesztést, mint a korábbi merev szabályok.

A változás hatására az Anthropic elveszítheti a bizalmat a fejlesztők és a közönség körében. Sokan úgy vélik, hogy a cég megszegte a korábbi ígéreteit, és ez aláássa a bizalmat a jövőbeli együttműködésekben. Az Anthropic azonban hangsúlyozza, hogy a változás szükséges volt, és hogy a cég továbbra is elkötelezett a biztonságos fejlesztés mellett.

Az Anthropic döntése hatással lesz a teljes AI-iparágra. A cég versenytársai figyelni fogják a változásokat, és saját stratégiájukat fogják alakítani ennek alapján. A biztonságos fejlesztés fontossága továbbra is kiemelt lesz, de a megközelítés változhat. Az Anthropic döntése arra késztetheti a többi fejlesztőt, hogy újragondolják saját biztonsági stratégiájukat, és hogy a biztonságos fejlesztés érdekében milyen lépéseket kell tenniük.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom