চিকিৎসকদের দাবি, এটি সম্ভবত বিশ্বের প্রথম AI–সম্পর্কিত বিষক্রিয়ার ঘটনা।

প্রতীকী ছবি
শেষ আপডেট: 10 August 2025 18:09
দ্য ওয়াল ব্যুরো: এআই (AI)–এর তৈরি করে দেওয়া ডায়েটের পরামর্শ মেনে চলছিলেন। তারপর বিরল ও প্রাণঘাতী ধরনের বিষক্রিয়ায় আক্রান্ত হয়ে ভর্তি হতে হল হাসপাতালে।
চিকিৎসকদের দাবি, এটি সম্ভবত বিশ্বের প্রথম AI–সম্পর্কিত ব্রোমাইড বিষক্রিয়ার ঘটনা। ঘটনাটি নথিভুক্ত হয়েছে অ্যানালস অফ ইন্টারনাল মেডিসিন: ক্লিনিক্যাল কেসেস–এ।
আমেরিকার ওয়াশিংটন বিশ্ববিদ্যালয়ের চিকিৎসকদের রিপোর্ট অনুযায়ী, ওই ব্যক্তি তিন মাস ধরে সোডিয়াম ব্রোমাইড খাচ্ছিলেন, কারণ তিনি ভেবেছিলেন এটি নাকি নুনের (সোডিয়াম ক্লোরাইড) নিরাপদ বিকল্প। এই পরামর্শ নাকি তিনি পেয়েছিলেন চ্যাটজিপিট (ChatGPT) থেকে, যা তাঁকে সম্ভাব্য বিপদের বিষয়ে ঠিক সতর্কবার্তা দিয়ে বোঝাতে পারেনি।
ব্রোমাইড একসময় অ্যাঙ্গজাইটি (Anxiety) ও অনিদ্রা (Insomnia) নিয়ন্ত্রণের ওষুধে ব্যবহার হত। কিন্তু মারাত্মক স্বাস্থ্যঝুঁকির কারণে কয়েক দশক আগে তা চিকিৎসাপদ্ধতি থেকে বাদ দেওয়া হয়।
বর্তমানে ব্রোমাইড মূলত পশুচিকিৎসার ওষুধ এবং কিছু শিল্পপণ্যে ব্যবহৃত হয়। ব্রোমাইড বিষক্রিয়া বা ব্রোমিজম–এর ঘটনা আজকাল অত্যন্ত বিরল।
ওই ব্যক্তি যখন হাসপাতালে পৌঁছন, তাঁর অভিযোগ ছিল - তাঁর প্রতিবেশী তাঁকে বিষ খাওয়াচ্ছে। কিছু টেস্টের রিপোর্ট স্বাভাবিক থাকলেও, তিনি প্রবল সন্দেহবাতিক হয়ে পড়েন, খানিক আতঙ্কেও ভুগছিলেন। তেষ্টা পেলেও জল খেতে চাইছিলেন না এবং হ্যালুসিনেশন হচ্ছিল। দ্রুত তাঁর মানসিক অবস্থা অবনতি হতে থাকে এবং মানসিক রোগজনিত সংকট শুরু হয়। বাধ্য হয়ে চিকিৎসকরা তাঁর মানসিক চিকিৎসা শুরু করেন।
অবশেষে স্যালাইন ও অ্যান্টিসাইকোটিক ওষুধ দেওয়ার পর ধীরে ধীরে তাঁর উপসর্গ কমতে শুরু করে। শারীরিকভাবে স্থিতিশীল হওয়ার পর তিনি জানান, তাঁর অসুস্থতার আসল কারণ ChatGPT। টেবিল সল্ট বা নুনের বাড়াবাড়ি নিয়ে চিন্তিত হয়ে তিনি ক্লোরাইডের বিকল্প জানতে চেয়েছিলেন। অভিযোগ, তখনই AI ব্রোমাইডকে তার নিরাপদ বিকল্প হিসেবে পরামর্শ দেয়, যা তিনি ঝুঁকি না বুঝেই মেনে নেন।
চিকিৎসকরা তাঁর আসল চ্যাট লগ না পেলেও, পরে একই প্রশ্ন ChatGPT–কে করলে সেটি ব্রোমাইডের উল্লেখ করেছিল - তবে এটি যে মানুষের জন্য ক্ষতিকর তা স্পষ্টভাবে জানায়নি। বিশেষজ্ঞদের মতে, এই ঘটনা প্রমাণ করে যে AI অনেক সময় প্রাসঙ্গিক সতর্কতা ছাড়া তথ্য দেয়, যা বিপজ্জনক হতে পারে।
তিন সপ্তাহ হাসপাতালে থাকার পর ওই ব্যক্তি পুরোপুরি সুস্থ হন এবং ফলো-আপে তাঁর অবস্থা স্থিতিশীল ছিল। চিকিৎসকেরা সতর্ক করে বলেন, AI টুল বৈজ্ঞানিক জ্ঞান সহজলভ্য করলেও, তা কখনওই পেশাদার চিকিৎসা পরামর্শের বিকল্প নয়। বরং ভুল প্রেক্ষাপটে AI–এর তথ্য মারাত্মক বিপদের কারণ হতে পারে, এই ঘটনাই তার উদাহরণ।