Az Anthropic visszavonta ígéreteit: a biztonság mostantól csak cél
Holden Karnofsky, az Anthropic egyik vezetője, a változásokat szorgalmazta, mondván, a korábbi stratégia hibás volt.

Az Anthropic, a vezető AI-fejlesztő cég, visszavonta korábbi biztonsági ígéreteit. Holden Karnofsky, az Anthropic egyik vezetője, a változásokat szorgalmazta, mondván, a korábbi stratégia hibás volt. A cég korábban azt ígérte, hogy nem fogja használni a veszélyes méretű modelleket, de most az új szabályzatban ezt a kötelezettséget elhagyta.
Az Anthropic Responsible skálázás Policy v3-nak nevezett új szabályzatban a cég mostantól csak célként fogja kezelni a biztonságot, de nem kötelezi el magát, hogy ne használjon veszélyes modelleket. A változás oka a verseny, mivel a cég úgy ítéli meg, hogy ha ők nem használnak ilyen modelleket, akkor mások fogják megtenni, és ez nem fogja növelni a biztonságot.
Az új szabályzatban az Anthropic hangsúlyozza, hogy továbbra is fontosnak tartja a biztonságot, de mostantól inkább az aspirációs célokat fogja követni, mint a korábbi kötelezettségeket. A cég szerint ez a megközelítés jobban segíti a biztonságos fejlesztést, mint a korábbi merev szabályok.
A változás hatására az Anthropic elveszítheti a bizalmat a fejlesztők és a közönség körében. Sokan úgy vélik, hogy a cég megszegte a korábbi ígéreteit, és ez aláássa a bizalmat a jövőbeli együttműködésekben. Az Anthropic azonban hangsúlyozza, hogy a változás szükséges volt, és hogy a cég továbbra is elkötelezett a biztonságos fejlesztés mellett.
Az Anthropic döntése hatással lesz a teljes AI-iparágra. A cég versenytársai figyelni fogják a változásokat, és saját stratégiájukat fogják alakítani ennek alapján. A biztonságos fejlesztés fontossága továbbra is kiemelt lesz, de a megközelítés változhat. Az Anthropic döntése arra késztetheti a többi fejlesztőt, hogy újragondolják saját biztonsági stratégiájukat, és hogy a biztonságos fejlesztés érdekében milyen lépéseket kell tenniük.