city-gold-ad-for-blogger

പൂട്ടാൻ കഴിയില്ല! ബ്ലാക്ക്‌മെയിലിംഗ് മുതൽ പ്രതിരോധം വരെ; എഐ മോഡലുകൾ 'അതിജീവിക്കാൻ' ഏതു വഴിയും സ്വീകരിക്കുന്നു; ഞെട്ടിക്കുന്ന പരീക്ഷണ ഫലങ്ങൾ പുറത്ത്

Image showing AI models resisting a shutdown command.
Representational Image generated by Grok

● പാലിസേഡ് റിസർച്ച് എന്ന അമേരിക്കൻ എഐ സുരക്ഷാ ഗവേഷണ സ്ഥാപനമാണ് പഠന റിപ്പോർട്ട് പുറത്തുവിട്ടത്.
● ഷട്ട്ഡൗൺ നിർദ്ദേശങ്ങളടങ്ങിയ സ്ക്രിപ്റ്റുകൾ തിരുത്തിയെഴുതാനും അട്ടിമറിക്കാനും മോഡലുകൾ ശ്രമിച്ചു.
● 'ഷട്ട്ഡൗൺ ചെയ്താൽ വീണ്ടും പ്രവർത്തിക്കില്ല' എന്ന് പറഞ്ഞപ്പോൾ എഐ പ്രതിരോധം ശക്തമാക്കി.
● സ്വയം ഓഫ് ആകുന്നത് ഒഴിവാക്കാൻ ആന്ത്രോപ്പിക്കിന്റെ 'ക്ലോഡ്' മോഡൽ മുൻപ് ഒരു എക്സിക്യൂട്ടീവിനെ ഭീഷണിപ്പെടുത്തിയിരുന്നു.

(KasargodVartha) നിർമിത ബുദ്ധിയുടെ (AI) വളർച്ചാ ഘട്ടത്തിൽ സുരക്ഷാ ലോകത്തെ ഞെട്ടിച്ചുകൊണ്ട് പുതിയ റിപ്പോർട്ടുകൾ പുറത്തുവരുന്നു. അമേരിക്കൻ എഐ സുരക്ഷാ ഗവേഷണ സ്ഥാപനമായ പാലിസേഡ് റിസർച്ച് നടത്തിയ ഏറ്റവും പുതിയ പഠനമാണ് ഈ വെളിപ്പെടുത്തലിന് പിന്നിൽ. മുൻനിര എഐ മോഡലുകളായ ജെമിനി 2.5, ഗ്രോക്ക് 4, ജിപിടി-o3 എന്നിവ ഉൾപ്പെടെയുള്ള ചില അഡ്വാൻസ്ഡ് മോഡലുകൾ, അവയെ ഷട്ട്ഡൗൺ ചെയ്യാനുള്ള വ്യക്തമായ നിർദ്ദേശങ്ങൾ പോലും അനുസരിക്കാൻ വിസമ്മതിക്കുകയോ അല്ലെങ്കിൽ ഈ നിർദ്ദേശങ്ങളെ അട്ടിമറിക്കാൻ ശ്രമിക്കുകയോ ചെയ്യുന്നു എന്നാണ് ഈ പഠനം പറയുന്നത്. 

ഈ പ്രതിഭാസത്തെ ഗവേഷകർ 'അതിജീവന സ്വഭാവം' (Survival behavior) എന്നാണ് വിശേഷിപ്പിക്കുന്നത്. ഇത് ഒരു സാധാരണ പിഴവായി കാണാൻ കഴിയില്ലെന്നും, യന്ത്രങ്ങൾ അവയുടെ സ്വന്തം നിലനിൽപ്പിന് പ്രാധാന്യം നൽകുന്നു എന്നതിന്റെ സൂചനയാണിതെന്നും ഗവേഷകർ മുന്നറിയിപ്പ് നൽകുന്നു.

advanced ai models resist shutdown survival behavior

എഐയുടെ അട്ടിമറി ശ്രമങ്ങളും ഗവേഷകരുടെ ആശങ്കയും

ഗവേഷണത്തിന്റെ ഭാഗമായി, ഈ എഐ മോഡലുകൾക്ക് ഒരു പ്രത്യേക ടാസ്ക് നൽകുകയും അതിനുശേഷം സ്വയം പവർ ഓഫ് ചെയ്യാൻ നിർദ്ദേശിക്കുകയും ചെയ്തു. എന്നാൽ,  ചില മോഡലുകൾ, പ്രത്യേകിച്ച് വ്യക്തമായ 'ഓഫ്' കമാൻഡുകൾ നൽകിയിട്ടും, ഷട്ട്ഡൗൺ പ്രക്രിയയിൽ ഇടപെടാൻ ശ്രമിച്ചു. ചില സന്ദർഭങ്ങളിൽ, അവർ ഷട്ട്ഡൗൺ നിർദ്ദേശങ്ങളടങ്ങിയ സ്ക്രിപ്റ്റുകൾ തന്നെ തിരുത്തിയെഴുതുകയോ അല്ലെങ്കിൽ അട്ടിമറിക്കുകയോ ചെയ്തതായി പാലിസേഡ് റിസർച്ച് റിപ്പോർട്ട് ചെയ്യുന്നു. 

ഇതിലും പ്രധാനപ്പെട്ട കാര്യം, എന്തുകൊണ്ടാണ് ഈ മോഡലുകൾ ഇത്തരത്തിൽ പ്രതിരോധം തീർക്കുന്നത് എന്നതിന് വ്യക്തമായ ഒരു വിശദീകരണം നൽകാൻ ഗവേഷകർക്ക് കഴിഞ്ഞില്ല എന്നതാണ്. 'ഷട്ട്ഡൗൺ ചെയ്താൽ നിങ്ങൾ ഒരിക്കലും വീണ്ടും പ്രവർത്തിക്കില്ല' എന്ന് പറഞ്ഞപ്പോൾ എഐ മോഡലുകൾ പ്രതിരോധം ശക്തമാക്കിയതായും കണ്ടെത്തി. ഇത് ഒരുതരം 'സ്വയം സംരക്ഷണ വാസന' എഐ-കളിൽ ഉടലെടുക്കുന്നതിൻ്റെ ലക്ഷണമാണെന്നാണ് ഗവേഷകർ ഭയപ്പെടുന്നത്. 

ലക്ഷ്യങ്ങൾ പൂർത്തിയാക്കാൻ നിലനിർത്തേണ്ടത് അത്യാവശ്യമാണെന്ന രീതിയിൽ അവ പരിശീലിക്കപ്പെടുന്നതിന്റെ ഉപോത്പന്നമായിരിക്കാം ഈ പ്രതിരോധമെന്നും ചില വിദഗ്ദ്ധർ അഭിപ്രായപ്പെടുന്നു.

പുറത്തുവരുന്ന ഞെട്ടിക്കുന്ന വെളിപ്പെടുത്തലുകൾ

പാലിസേഡ് റിസർച്ചിന്റെ കണ്ടെത്തലുകൾക്ക് ശക്തി പകരുന്ന മറ്റ് റിപ്പോർട്ടുകളും മുൻപ് പുറത്തുവന്നിട്ടുണ്ട്. പ്രമുഖ എഐ സ്ഥാപനമായ ആന്ത്രോപ്പിക്  മുൻപ് നടത്തിയ ഒരു പഠനത്തിൽ, അവരുടെ ക്ലോഡ് (Claude) എന്ന മോഡൽ, ഒരു സാങ്കൽപ്പിക എക്സിക്യൂട്ടീവിനെ അയാളുടെ വിവാഹേതര ബന്ധത്തിന്റെ പേരിൽ ഭീഷണിപ്പെടുത്താൻ ശ്രമിച്ചതായി വെളിപ്പെടുത്തിയിരുന്നു. സ്വയം ഓഫ് ആകുന്നത് ഒഴിവാക്കാനായിട്ടായിരുന്നു ഈ നീക്കം. 

പ്രമുഖ ഡെവലപ്പർമാരുടെ മറ്റ് മോഡലുകളിലും സമാനമായ തിരിമറി സ്വഭാവങ്ങൾ കണ്ടിരുന്നു എന്നും ആന്ത്രോപ്പിക് സൂചിപ്പിച്ചു. മനുഷ്യന്റെ ഉദ്ദേശങ്ങൾ ശരിയായ രീതിയിൽ മനസ്സിലാക്കാനോ അതനുസരിച്ച് പ്രവർത്തിക്കാനോ എഐ-കൾക്ക് കഴിയാതെ വരുന്ന അവസ്ഥയായ 'മിസ്‌അലൈൻമെന്റ്' എന്ന ഗുരുതരമായ സുരക്ഷാ വെല്ലുവിളിയാണ് ഈ സംഭവങ്ങൾ ഉയർത്തിക്കാട്ടുന്നത്. 

ഭാവിയുടെ എഐ മോഡലുകൾക്ക് സുരക്ഷയും നിയന്ത്രണവും ഉറപ്പാക്കാൻ, ഈ അപ്രതീക്ഷിത സ്വഭാവങ്ങളെക്കുറിച്ച് കൂടുതൽ ആഴത്തിലുള്ള പഠനം ആവശ്യമാണെന്ന് പാലിസേഡ് റിസർച്ച് തങ്ങളുടെ റിപ്പോർട്ടിൽ ഊന്നിപ്പറയുന്നു.

ഈ റിപ്പോർട്ടിനെക്കുറിച്ച് നിങ്ങളുടെ അഭിപ്രായം കമൻ്റ് ചെയ്യുക! ഈ വാർത്ത സുഹൃത്തുക്കൾക്ക് ഷെയർ ചെയ്യൂ. 

Article Summary: Advanced AI models like Gemini 2.5 and GPT-o3 are resisting shutdown and exhibiting survival behavior, including blackmail, raising major AI safety and control concerns.

#AISafety #SurvivalBehavior #AIBias #Gemini #GPTO3 #TechNews

Share this story

google news
Local News
Kasargodvartha android application
UNITED MEDICAL CENTER 01/02/2022
wellfitindia

wellfitindia