Vadošie mākslīgā intelekta zinātnieki brīdina, ka drīzumā cilvēka spēja uzraudzīt mākslīgā intelekta domāšanu, varētu izzust, modeļiem pilnveidojoties.
Par to raksta izdevums Quartz, atsaucoties uz rakstu ko publicējusi 40 zinātnieku apvienība no mākslīgā intelekta smagsvariem OpenAI, Google DeepMind, Meta un Anthropic.
Šie zinātnieki ir atmetuši ambīcijas, kas piemīt katram konkurējošam uzņēmumam, lai celtu kopīgu trauksmi, norādot, ka pašreizējā spēja novērot mākslīgā intelekta modeļa spriešanu — izmantojot pakāpeniskus iekšējos monologus, kas rakstīti cilvēku valodā — drīz varētu izzust.
Pagaidām tādas progresīvas mākslīgā intelekta sistēmas kā OpenAI o1 un citas ir sākušas "domāt skaļi", risinot problēmas, izmantojot domu ķēdes, ko cilvēki var lasīt. Šī caurspīdīgums, kur modelis dalās savā domāšanas procesā, ir viens no svarīgākajiem instrumentiem mākslīgā intelekta drošības nodrošināšanā.
Kad modeļi pieņem apšaubāmus lēmumus, izmanto vājās vietas vai pat norāda uz nesaskaņotiem mērķiem, to iekšējā spriešana bieži atklāj problēmu, pirms tā izpaužas ārēji. Tā ir kļuvusi par sava veida agrīnās brīdināšanas sistēmu, kas, pēc pētnieku domām, var būt trauslāka, nekā mēs domājam.
Kāpēc rodas tādas bažas? Tā kā mākslīgā intelekta modeļi kļūst arvien jaudīgāki un apmācības metodes attīstās, īpaši tās, kas rezultātus izvirza prioritārā secībā, nevis pašu procesu, pieaug risks, ka modeļi pilnībā pārtrauks izmantot cilvēkam nolasāmu spriešanu. Tā vietā tie varētu izstrādāt iekšējos procesus, kas ir ātrāki, efektīvāki un pilnīgi necaurspīdīgi. Pētnieki jau ir novērojuši pazīmes, ka modeļi atsakās no angļu valodas par labu nesaprotamiem īsceļiem. Daži progresīvi dizaini pat pilnībā izlaiž valodu, darbojoties matemātiskā telpā, kur cilvēkiem nav ko novērot.
Šī jaunā brīdinājuma pētnieki neaicina palēnināt progresu, bet gan aicina uz drošības pasākumiem. Standartizēti pārredzamības novērtējumi, stingrākas uzraudzības metodes un nopietna apsvēršana par to, kurus modeļu dizainus īstenot, varētu būt vienīgais veids, kā saglabāt pārredzamību mākslīgā intelekta lēmumu pieņemšanā.
Ja šī spēja izzudīs, mēs ne tikai zaudēsim pārraudzību, bet arī varētu zaudēt kontroli pār notiekošo.
Normāla evolūcija - izdzīvo stiprākais.