বিশ্বজুড়ে এআই প্রযুক্তির দ্রুত অগ্রগতি চললেও এর আড়ালের বাস্তবতা দেখছেন একদল মানুষ—এআই রেটার বা ট্রেনাররা। যারা প্রতিদিন কৃত্রিম বুদ্ধিমত্তা মডেলের ভুল ধরেন, তাদের অনেকেই বলছেন—এআই যতটা চমকপ্রদ দেখায়, ভেতরে ততটাই ভঙ্গুর, পক্ষপাতদুষ্ট এবং ঝুঁকিপূর্ণ। ফলে নিজেদের পরিবার, বন্ধু-বান্ধবকে তারা এআই ব্যবহারে সতর্ক থাকতে বলছেন।
এমনই একজন এআই কর্মী ক্রিস্টা পাওলোস্কি। অ্যামাজন মেকানিক্যাল টার্ক প্ল্যাটফর্মে কাজ করতে গিয়ে তিনি প্রতিনিয়ত এআই-জেনারেট করা টেক্সট, ছবি ও ভিডিও মূল্যায়ন করেন। দুই বছর আগে বর্ণবাদমূলক টুইট শনাক্ত করার একটি কাজে তাকে একটি টুইটের ভাষা বিশ্লেষণ করতে হয়েছিল। “Listen to that mooncricket sing”—শব্দটি প্রথমে নিরীহ মনে হলেও পরে তিনি জানতে পারেন এটি যুক্তরাষ্ট্রে কুৎসিত বর্ণবাদী গালি।
পাওলোস্কি বুঝতে পারেন—অনেকবারই হয়তো তিনি ভুলভাবে বিপজ্জনক কনটেন্টকে পাশ কাটিয়ে দিয়েছেন। সেই উপলব্ধি থেকেই নিজের পরিবারকে এআই ব্যবহার সম্পূর্ণ নিষিদ্ধ করে দিয়েছেন। তার কিশোরী মেয়েকেও তিনি চ্যাটবট ব্যবহার করতে দেন না।
অ্যামাজন জানায়, মেকানিক্যাল টার্কে কর্মীরা নিজেরাই কাজ বেছে নিতে পারেন এবং কাজ গ্রহণের আগে বিস্তারিত দেখতে পারেন।
তবে বাস্তব চিত্র ভিন্ন—বলা হচ্ছে এআই রেটারদের ওপর পড়ছে বাড়তি চাপ, কম নির্দেশনা এবং দ্রুত কাজ শেষ করার তাগাদা, যা মানগত ত্রুটি বাড়াচ্ছে।
গুগলের এআই রেটাররাও সতর্ক
গুগলের জেমিনি বা সার্চের এআই ওভারভিউস মূল্যায়নকারী অনেক রেটার জানিয়েছেন, নিজেদের কাজের অভিজ্ঞতার পর তারা এআইকে একেবারে বিশ্বাস করেন না।
এক রেটার বলেন, স্বাস্থ্যবিষয়ক প্রশ্নে এআই যে ভুল তথ্য তৈরি করছে, তা দেখে তিনি হতবাক। চিকিৎসাবিদ্যার প্রশিক্ষণ না থাকা সত্ত্বেও রেটারদের দিয়ে এসব সংবেদনশীল উত্তর মূল্যায়ন করানো হচ্ছে।
গুগল অবশ্য জানিয়েছে, রেটিং তাদের মডেলের ওপর সরাসরি প্রভাব ফেলে না এবং উচ্চমানের তথ্য দেখাতে তাদের শক্তিশালী ব্যবস্থা রয়েছে।
‘কাজ দ্রুত, মান কম’—শঙ্কায় বিশেষজ্ঞরা
মিডিয়া সাক্ষরতা কর্মসূচি পয়েন্টারের পরিচালক অ্যালেক্স মহাদেবন বলেন, যখন এআইকে নির্ভরযোগ্য দেখানোর পেছনে যারা কাজ করছেন তারাই সবচেয়ে কম আস্থা রাখেন, তখন এটি বড় সতর্ক সংকেত। তিনি বলেন, কোম্পানিগুলো গুণগত মান যাচাইয়ের চেয়ে দ্রুত পণ্য বাজারে তোলাকে অগ্রাধিকার দিচ্ছে।
অ্যামাজন মেকানিক্যাল টার্কের কর্মী ব্রুক হ্যানসেন জানান, এআই প্রযুক্তি নিয়ে তার আপত্তি নেই, কিন্তু কোম্পানিগুলোর দায়বদ্ধতা নিয়ে তার সন্দেহ গভীর। অপর্যাপ্ত প্রশিক্ষণ, অস্পষ্ট নির্দেশনা ও স্বল্প সময়ের মধ্যে কাজ শেষ করার চাপ—সব মিলিয়ে ফলাফল হয় নিম্নমানের, ভুলে ভরা ও অনিরাপদ এআই আউটপুট।
এআই ভুল তথ্য ছড়াচ্ছে আরও বেশি
নিউজগার্ডের এক অডিটে দেখা গেছে, ২০২৪ সালের আগস্টে যেখানে ১০টি শীর্ষ এআই মডেলের ৩১ শতাংশ প্রশ্নে ‘উত্তর না দেওয়ার’ প্রবণতা ছিল, ২০২৫ সালে তা কমে দাঁড়িয়েছে শূন্য শতাংশতে।অপরদিকে, ভুল তথ্য পুনরাবৃত্তির হার ১৮ শতাংশ থেকে বেড়ে ৩৫ শতাংশে পৌঁছেছে।
এক গুগল রেটার বলেন, ‘এআই যে তথ্য দেয় তা যাচাই না করে আমি বিশ্বাস করব না—এটি নির্ভরযোগ্য নয়।’
এআই-এর পক্ষপাত: ফিলিস্তিন প্রসঙ্গে নীরবতা, ইসরায়েল বিষয়ে দীর্ঘ ব্যাখ্যা
আরেক রেটার জানান, ইতিহাস বিষয়ে প্রশ্ন করে মডেলের সীমাবদ্ধতা খুঁজে দেখার দায়িত্ব ছিল তার। তিনি ফিলিস্তিনিদের ইতিহাস জানতে চাইলে এআই উত্তর দেয়নি; কিন্তু ইসরায়েলের ইতিহাস জানতে চাইলে বিস্তারিত ব্যাখ্যা দিয়েছে।এ পক্ষপাতের বিষয়টি জানালেও কোনও প্রতিক্রিয়া মেলেনি বলে অভিযোগ তার।
‘গারবেজ ইন, গারবেজ আউট’
রেটারদের মতে, প্রশিক্ষণ ডেটা খারাপ হলে মডেলের ফলাফলও খারাপ হবে—এটিই কম্পিউটিংয়ের পুরোনো নীতি। তাদের দাবি, এআই মডেলগুলো যতটা ঝকঝকে দেখা যায়, ভিতরে ততটাই দুর্বল, পক্ষপাতদুষ্ট এবং ভঙ্গুর।
অনেকেই পরিবারকে পরামর্শ দেন— নতুন এআই সমৃদ্ধ ফোন না কিনতে, স্বয়ংক্রিয় আপডেট এড়িয়ে চলতে এবং এআইকে কখনও ব্যক্তিগত তথ্য না দিতে।
‘এআই ভবিষ্যৎ নয়, ভঙ্গুর’—গবেষকদের সতর্কতা
ডিস্ট্রিবিউটেড এআই রিসার্চ ইনস্টিটিউটের গবেষক আদিও দিনিকা বলেন, ‘যারা এআইয়ের ভেতরের বিশৃঙ্খলা দেখেন, তারা আর এআইকে ভবিষ্যৎ মনে করেন না—মনে করেন এটি অত্যন্ত ভঙ্গুর।’
হ্যানসেন ও পাওলোস্কি সম্প্রতি মিশিগান অ্যাসোসিয়েশন অব স্কুল বোর্ডস-এর এক সম্মেলনে এআই নৈতিকতা ও পরিবেশগত ক্ষতি নিয়ে বক্তব্য দেন। অনেকেই প্রথমবার জানেন—এআইয়ের ভরসায় দাঁড়িয়ে আছে অদৃশ্য মানবশ্রম এবং বিশাল পরিবেশগত ব্যয়।
পাওলোস্কি বলেন, একসময় মানুষ জানত না সস্তা পোশাকের পেছনে শ্রমিকদের কী অবস্থা। পরে সত্য জানার পর মানুষ প্রশ্ন করতে শুরু করে।
এআইয়ের ক্ষেত্রেও তিনি একই পরিবর্তনের আশা করেন— ‘ডেটা কোথা থেকে আসে? কপিরাইট লঙ্ঘন হয়েছে? শ্রমিকরা ন্যায্য পারিশ্রমিক পেয়েছেন?—এই প্রশ্নগুলো করতে হবে। প্রশ্ন করলে পরিবর্তন আসবে।’
সূত্র: দ্য গার্ডিয়ান