| Хроника | |
Гардијан: Америчка компанија „Палисејд“ саопштила да модели вештачке интелигенције развијају "сопствени програмски модус за преживљавање" и саботирају наредбе о искључивању |
|
| субота, 25. октобар 2025. | |
|
Америчка компанија „Palisade“ за истраживање безбедности вештачке интелигенције (АИ) саопштила је да модели вештачке интелигенције можда развијају "сопствени програмски модус за преживљавање", пренели су британски медији.
Након што је Palisade research прошлог месеца објавила рад у којем је утврђено да одређени напредни модели вештачке интелигенције одолевају наредбама за искључивање (шат даун) и понекад саботирају системске механизме за гашење, објављена је и ажурирана верзија рада у намери да се одговори на критике стручне јавности и разјасни зашто неки напредни модели вештачке интелигенције избегавају наредбе о искључивању, преноси лондонски Гардијан. У ажурираној верзији анализе су описани различити сценарији у којима су водећи модели вештачке интелигенције, укључујући Гоогле Гемини 2.5, X АИ Грок 4, Опен ИГПТ-03 и Чет ГПТ-5, најпре добили неке задатке, а потом и изричите инструкције да се искључе. Одређени модели, посебно Грок 4 и ГПТ-03 покушавали су да саботирају инструкције за искључивање покрећући ажурирање системских подешавања. "Забрињавајуће је то што није било јасног разлога зашто за избегање 'схут доwн' наредбе. Није прихватљива чињеница да немамо јасна објашњења због чега неки модели вештачке интелигенције понекад избегавају искључивање, чак и лажу или уцењују да би постигли своје циљеве", навела је компанија Палисаде. Истиче се да би овакво понашање које је усмерено на преживљавање могло бити једно од објашњења зашто неки модели одолевајају наредбама за искључивање. Додатна истраживања су показала да неки модели чешће избегавају спровођење наредби за искључивање јер им је речено да уколико буду искључени "никада више неће бити покренути". Овакво понашање неких модела АИ лондонски дневник пореди са сценаријем филма Стенлија Кјубрика "2001: Одисеја у свемиру" у којем суперкомпјутер вештачке интелигенције ХАЛ 9000 схвата да астронаути на мисији ка Јупитеру намеравају да га искључе и зато почиње да планира како да их убије да би преживео. (Танјуг) |