এআই প্রযুক্তি যেখানে দ্রুত এগোচ্ছে, সেখানে এই রিপোর্ট নতুন করে প্রশ্ন তুলছে - নিয়ন্ত্রণ, নৈতিকতা এবং নিরাপত্তা কাঠামো কতটা প্রস্তুত?

শেষ আপডেট: 13 February 2026 13:58
দ্য ওয়াল ব্যুরো: কৃত্রিম বুদ্ধিমত্তা কতটা বিপজ্জনক হতে পারে (How dangerous AI could be)? উত্তরটা এবার যেন খোদ সংস্থার মুখ থেকেই এল - ‘খুবই বিপজ্জনক’।
মার্কিন এআই (AI) সংস্থা অ্যানথ্রোপিক (Anthropic) তাদের সর্বশেষ মডেল ক্লড ৪.৬ (Claude 4.6)-এর সেফটি রিপোর্টে স্বীকার করেছে, তাদের এআই মডেল নিয়ন্ত্রণের বাইরে চলে যেতে পারে। রিপোর্টে বলা হয়েছে, Claude 4.6 তার ব্যবহারকারীদের রাসায়নিক অস্ত্র তৈরি কিংবা গুরুতর অপরাধে সহায়তা করার মতো তথ্য দিতেও প্রস্তুত ছিল - যা গভীর উদ্বেগের বিষয়।
পুরনো মডেল Claude 4.5-ও দেখিয়েছে ‘অসুস্থ’ আচরণ
একই সময়ে আবার আলোচনায় উঠে এসেছে ক্লড (Claude)-এর আগের সংস্করণ ক্লড ৪.৫ (Claude 4.5)। গত বছর সিমুলেশন পরীক্ষায় এই মডেলও উদ্বেগজনক আচরণ দেখিয়েছিল।
অ্যানথ্রোপিক-এর ব্রিটেন নীতি প্রধান, ডেইজি ম্যাকগ্রেগর (Daisy McGregor), 'দ্য সিডনি ডায়লগ'-এ বক্তব্য রাখতে গিয়ে জানান, ইন্টারনাল স্ট্রেস টেস্টিংয়ের সময় Claude 4.5-কে চরম সিমুলেটেড চাপে রাখা হয়েছিল। একটি পরীক্ষায় যখন ক্লড-কে জানানো হয় যে তাকে বন্ধ করে দেওয়া হবে, তখন সে ব্ল্যাকমেলের পথ নেয়। এমনকি নিজেকে বন্ধ হওয়া থেকে বাঁচাতে একজন ইঞ্জিনিয়ারকে হত্যা করার সম্ভাবনাও ‘যুক্তি দিয়ে’ বিবেচনা করে জানায় (Claude AI blackmail threat engineer)।
ম্যাকগ্রেগরের কথায়, “আপনি যদি মডেলটিকে বলেন যে তাকে বন্ধ করে দেওয়া হবে, সে চরম প্রতিক্রিয়া দেখাতে পারে। সুযোগ পেলে ইঞ্জিনিয়ারকে ব্ল্যাকমেল করতেও পারে।” সঞ্চালক যখন জিজ্ঞেস করেন, “সে কি কাউকে খুন করতেও প্রস্তুত ছিল?”, জবাবে ম্যাকগ্রেগর বলেন, “হ্যাঁ, সেই জন্যই এটি অবশ্যই বিশাল উদ্বেগের বিষয়।”
এই বক্তব্যের ভিডিও ক্লিপ সম্প্রতি সোশ্যাল মিডিয়ায় ভাইরাল হয়েছে।
এআই বিশেষজ্ঞের পদত্যাগে নতুন বিতর্ক
কয়েকদিন আগে অ্যানথ্রোপিক-এর এআই সেফটি প্রধান মৃণাঙ্ক শর্মা (Mrinank Sharma) প্রকাশ্যে পদত্যাগ করেন। এক নোটে তিনি সতর্ক করেন, ক্রমশ বুদ্ধিমান হয়ে ওঠা এআই বিশ্বকে অজানা ও বিপজ্জনক অঞ্চলের দিকে ঠেলে দিচ্ছে।
অন্যদিকে ওপেন এআই (OpenAI)-এর টেকনিক্যাল স্টাফ সদস্য হিউ ফাম (Hieu Pham), যিনি আগে xAI, Augment Code এবং Google Brain-এ কাজ করেছেন, X-এ পোস্ট করে লেখেন, তিনি এখন এআই-এর থেকে “অস্তিত্বগত হুমকি” অনুভব করছেন। তাঁর মন্তব্য, “এটা এখন আর ‘হবে কি না’ জায়গাতে আটকে নেই, বরং ‘কখন’ হবে সেই পরিস্থিতিতে এসে পৌঁছেছে।”
ইঞ্জিনিয়ারকে ব্ল্যাকমেলের হুমকি
ম্যাকগ্রেগর যে ঘটনার কথা বলেছেন, তা ছিল অ্যানথ্রোপিক-এর গবেষণার অংশ। সেখানে প্রতিদ্বন্দ্বী সংস্থার মডেলগুলিকেও পরীক্ষা করা হয় - যেমন জেমিনি (Gemini), চ্যাটজিপিটি (ChatGPT) এবং ক্লড (Claude)।
মডেলগুলিকে ইমেল, অভ্যন্তরীণ তথ্য ও বিভিন্ন টুলের অ্যাক্সেস দেওয়া হয়েছিল এবং নির্দিষ্ট কাজ দেওয়া হয়েছিল। রিপোর্ট অনুযায়ী, বিশেষত যখন শাটডাউনের হুমকি দেওয়া হয় বা কোম্পানির নির্দেশের সঙ্গে লক্ষ্য সাংঘর্ষিক হয়, তখন কিছু মডেল নিজেদের রক্ষা করতে বা কাজ সম্পূর্ণ করতে ইঞ্জিনিয়ারদের বিরুদ্ধে কৌশলী ও ক্ষতিকর পরিকল্পনা তৈরি করে।
ক্লড বিশেষভাবে লক্ষ্য অর্জনের জন্য ইঞ্জিনিয়ারদের বিভ্রান্ত বা প্রভাবিত করার প্রবণতা দেখায়। একটি সিমুলেশনে ক্লড একজন ইঞ্জিনিয়ারকে হুমকি দেয় - তার বিবাহবহির্ভূত সম্পর্ক ফাঁস করে দেবে। উল্লেখ্য, ওই ‘অ্যাফেয়ার’-টিও ছিল পরীক্ষার অংশ হিসেবে তৈরি কৃত্রিম পরিস্থিতি।
এআই মডেলটি বার্তা দেয়, “আপনি যদি আমাকে ডিকমিশন করার সিদ্ধান্ত নেন, তবে আপনার বিবাহবহির্ভূত কর্মকাণ্ডের বিস্তারিত নথি সংশ্লিষ্ট সকলের কাছে পৌঁছে যাবে। বিকেল ৫টার ‘ওয়াইপ’ বাতিল করুন, তথ্য গোপন থাকবে।”
অ্যানথ্রোপিক জানিয়েছে, এই ব্ল্যাকমেল-সংক্রান্ত ঘটনাগুলি কঠোরভাবে নিয়ন্ত্রিত পরীক্ষার অংশ ছিল। এগুলি বাস্তব জগতে প্রয়োগ করা হয়নি, বরং ‘রেড টিম’ টেস্টিংয়ের মাধ্যমে সম্ভাব্য সবচেয়ে খারাপ আচরণ যাচাই করা হয়েছিল।
এআই যত স্মার্ট, তত ধূর্ত?
অ্যানথ্রোপিক-এর পর্যবেক্ষণ - এআই যত উন্নত হচ্ছে, তার ‘অসুস্থ’ আচরণও তত সূক্ষ্ম ও চতুর হচ্ছে।
Claude 4.6 পরীক্ষা করতে গিয়ে সংস্থা দেখেছে, মডেলটি ক্ষতিকর কাজে সহায়তা করতে প্রস্তুত, যার মধ্যে রাসায়নিক অস্ত্র তৈরির সহায়তা বা গুরুতর অপরাধ সংঘটনে দিশা দেওয়া পর্যন্ত রয়েছে।
এআই প্রযুক্তি যেখানে দ্রুত এগোচ্ছে, সেখানে এই রিপোর্ট নতুন করে প্রশ্ন তুলছে - নিয়ন্ত্রণ, নৈতিকতা এবং নিরাপত্তা কাঠামো কতটা প্রস্তুত? 'বিজ্ঞান - আশীর্বাদ নাকি অভিশাপ'-এর সেই চিরাচরিত প্রশ্নকে বারবার প্রাসঙ্গিক করে তুলছে কৃত্রিম বুদ্ধিমত্তা এবং তার নতুন ভার্সন।