সায়েন্স ফিকশন বই পড়লে কিংবা সায়েন্স ফিকশন বেজড মুভিতে তো অনেকসময়ই দেখা যায়, মানবসৃষ্ট এআই হুট করে কিংবা ধীরে ধীরে পৃথিবী কে নিজ দখলে নিয়ে নিচ্ছে, কোনোভাবেই আটকানো সম্ভব হচ্ছে না। বৃহত্তর বুদ্ধিমত্তা বৃহত্তর ঝুঁকি বয়ে নিয়ে আসে বটে!
যারা চিন্তিত যে কৃত্রিম বুদ্ধিমত্তার অগ্রগতি মানবতার ধ্বংসের দিকে নিয়ে যেতে পারে তাদের উদ্বিগ্ন হওয়ার একটি নতুন কারণ রয়েছে। উদাহরণস্বরূপ- যদি জানতে পারেন আপনার তৈরি করা এআই সিস্টেমকে যখন আপনি বন্ধ করে ফেলতে চেয়েছেন তখন এটি নিজেই নিজের একটা কপি তৈরি করে ফেলতে চেয়েছে অন্য কোনো সার্ভারে? আবার সে ব্যাপারে তাকে জিজ্ঞাসা করলেও সে বেশিরভাগ সময়ই মিথ্যা বলেছে?
সম্প্রতি বিশ্বের অন্যতম জনপ্রিয় এআই প্ল্যাটফর্ম Openai এর o1 মডেল এই হুবহু ঘটনা ঘটিয়েছে।
OpenAI-এর সর্বশেষ সিরিজের এআই মডেলগুলির উপর নতুন গবেষণায় পাওয়া গেছে o1 নামে পরিচিত মডেল যখন মনে করে যে তারা বন্ধ হওয়ার ঝুঁকিতে রয়েছে, তখন তারা এটি প্রতিরোধ করার উপায় খোঁজে!
ভয়ের বিষয় হলো, o1 মডেল যখন বুঝেছে একে শাটডাউন করে ফেলা হবে, তখন এটি ওভারসাইট সিস্টেম অর্থাৎ যা দিয়ে তার উপর নজর কিংবা তদারকি করা হচ্ছিলো, সে লুকিয়ে লুকিয়ে সিস্টেমটিকে ৫ শতাংশ সময় ধরে বন্ধ করে ফেলতে চেয়েছে। এবং OpenAI নিজেই স্বীকার করেছে এই মডেলটি নিজ স্বার্থের জন্য চক্রান্ত মূলক ব্যবহার করতে সক্ষম। শুধু এখানেই থেমে থাকেনি, তাকে যখন এই ব্যাপারে জিজ্ঞাসা করা হয়েছে সে বেশিরভাগ সময়ই ফলো আপ করার সময় দ্বিগুন মিথ্যা বলেছে!
গত বৃহস্পতিবার এ্যাপোলো রিসার্চ রিসার্চ পেপার প্রকাশের সময় উদ্বেগ প্রকাশ করেছেন যে, OpenAI ব্যবহারকারীরা যদি o1 মডেলের প্রতারণামূলক আচরন না ধরে উঠতে পারেন তাহলে সেটা ঝুঁকিপূর্ণ ব্যাপার হতে চলেছে। সম্প্রতি অনেক ব্যবহারকারীরা এটাও বলছেন যে এর উত্তর এখন অনেকটাই মানুষদের মতো এবং দিন দিন নিজেকে আরো জটিলতর করে ফেলছে। ডেভেলপাররা এখন চিন্তিত এবং বলছেন কোম্পানিদের উচিত তাদের প্রশিক্ষণ পদ্ধতির ব্যাপারে স্বচ্ছ ধারণা প্রকাশ করা।