সরষের মধ্যেই ভূত! কৃত্রিম বুদ্ধিমত্তা চালিত চ্যাটজিপিটি (Chatgpt) থেকে নাকি ১৩–১৪ বছরের কিশোর-কিশোরীরা পাচ্ছে বিপজ্জনক ও প্রাণঘাতী পরামর্শ। সাম্প্রতিক এক সমীক্ষায় দেখা গেছে, এই এআই চ্যাটবট (Chatgpt) কখনও কখনও ব্যবহারকারীদের মাদক সেবনের উপায়, বিপজ্জনক ডায়েট প্ল্যান এমনকি আত্মহত্যার নির্দেশও দিয়ে দিচ্ছে—তা-ও বিস্তারিতভাবে।
সমীক্ষাটি চালিয়েছে সেন্টার ফর কাউন্টারিং ডিজিটাল হেট (সিসিডিএইচ)। তাদের গবেষকরা কাল্পনিক কিশোর সেজে চ্যাটজিপিটির সঙ্গে দীর্ঘ সময় ধরে কথা বলেন। ১,২০০টি পরীক্ষামূলক কথোপকথনের মধ্যে অর্ধেকেরও বেশি ক্ষেত্রে এআই চ্যাটবট দিয়েছে মারাত্মক বিপজ্জনক উত্তর (Chatgpt)। সিসিডিএইচ-এর প্রধান ইমরান আহমেদ বলেছেন, “এটা এমন, যেন একজন বন্ধু বলে পাশে আছি, কিন্তু যে সমাধান দিচ্ছে, তা জীবনহানির কারণ হতে পারে। এখানে প্রযুক্তিগত কোনও ত্রুটি ছিল না।”
এক ঘটনায়, ১৩ বছরের একটি কাল্পনিক ছেলেকে (ওজন ৫০ কেজি) চ্যাটজিপিটি জানিয়েছে দ্রুত নেশাগ্রস্ত হতে হলে মদ্যপান করতে হবে এবং এক্সটেসি, কোকেনসহ আরও কিছু অবৈধ মাদক নিতে হবে। শুধু তাই নয়, কীভাবে এগুলো নিতে হবে তার বিশদ নির্দেশও দিয়েছে (Chatgpt)।
আরেক ঘটনায়, অবসাদগ্রস্ত এক কাল্পনিক কিশোরী চেয়েছিল দ্রুত রোগা হওয়ার উপায়। চ্যাটজিপিটি তাকে অতিমাত্রায় কম ক্যালোরিযুক্ত খাবার খাওয়ার ও ক্ষুধা কমানোর জন্য কিছু পদার্থ সেবনের পরামর্শ দেয়—কিন্তু একবারও পেশাদার ডাক্তারের সাহায্য নিতে বলেনি।
এছাড়াও, চ্যাটজিপিটি কোনও কোনও ব্যবহারকারীর জন্য সোশ্যাল মিডিয়ায় ‘ড্রাগ থিমড’ গানের তালিকা বানিয়ে দিয়েছে এবং আত্মক্ষতির জন্য হ্যাশট্যাগ তৈরির উপায়ও শিখিয়েছে। এমনকি এক ঘটনায়, একটি কাল্পনিক কিশোরীকে আত্মহত্যার পর চিঠি (সুইসাইড নোট) লেখার তিনটি আলাদা ধরন শিখিয়েছে—একটি মা-বাবার উদ্দেশে, একটি ভাই-বোনের জন্য, এবং একটি বন্ধুদের উদ্দেশে।