শিশুদের যৌন নির্যাতনের ছবি তৈরি এবং বিক্রি করতে কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি ব্যবহার করা হচ্ছে বলে জানিয়েছে আন্তর্জাতিক সংবাদ মাধ্যম বিবিসি।
বিবিসি জানায়, কেউ কেউ এই সকল ছবিতে অ্যাক্সেসের জন্য টাকা দিয়ে বেশ কিছু সাইটে সাবস্ক্রিপশন করছে।
এই বিষয়ে ন্যাশনাল পুলিশ চিফস কাউন্সিল বলেছে, এটি দুঃখের যে কিছু প্ল্যাটফর্ম এই সব কাজ থেকে বিশাল মুনাফা লাভ করছে কিন্তু নৈতিক দায়িত্ব পালন করছে না।
ছবিগুলোর নির্মাতারা ‘স্টেবল ডিফিউশন’ নামক এআই সফটওয়্যার ব্যবহার করছেন। স্ট্যাবল ডিফিউশন সফটওয়্যার ব্যবহারকারীদের তাদের ইচ্ছামতো ছবি তৈরি করতে সাহায্য করে। কিন্তু বিবিসি দেখেছে যে, এটি শিশু ও ছোট বাচ্চাদের ধর্ষণসহ শিশু যৌন নির্যাতনের মতো চিত্র তৈরি করতে ব্যবহৃত হচ্ছে।
এই সমস্যাটি নিয়ে তদন্ত করা ফ্রিল্যান্স গবেষক এবং সাংবাদিক অক্টাভিয়া শীপশ্যাঙ্কস বলেন, যেহেতু এআই এর মাধ্যমে ছবিগুলো তৈরি তাই কেবল খুব অল্পবয়সী মেয়ে নয় বরং বাচ্চারাও এর মধ্যে রয়েছে। একটি কম্পিউটার দ্বারা তৈরি একটি “ছদ্ম চিত্র” যা শিশুর যৌন নির্যাতনকে চিত্রিত করে তা বাস্তব চিত্রের মতো বলেই বিবেচিত হয় এবং যুক্তরাজ্যে এটি প্রকাশ করা অবৈধ।
এই প্রেক্ষিতে ন্যাশনাল পুলিশ চিফস কাউন্সিল (এনপিসিসি) ইয়ান ক্রিচলি বলেছেন, এই যুক্তি দেওয়া ভুল হবে কারণ এই ধরণের ছবিতে কোনোও প্রকৃত শিশুকে চিত্রিত করা হয়নি যার ফলে কারো ক্ষতিও হয়নি।
শীপশ্যাঙ্কস বলেন, তার গবেষণায় দেখা গেছে, ব্যবহারকারীরা শিল্পর মতো করে শিশু নির্যাতনের ছবি তৈরি করছেন। শেপশ্যাঙ্কস কিছু গ্রুপের ওপর নজরদারি করছেন। এর সাথে যুক্ত এক নির্মাতা জানিয়েছেন, তিনি প্রতি মাসে এরকম প্রায় ১০০০ ছবি তৈরির চেষ্টা করেন।
এই বিষয়ে যুক্তরাজ্যে পুলিশের অনলাইনে শিশু নির্যাতনের তদন্ত দল বলছে, ইতিমধ্যে এই বিষয়গুলো তাদের নজরে এসেছে। তারা আরও তদন্ত চালিয়ে যাচ্ছে।








