বন্যা ইস্যুতে শিশুর ভাইরাল এই ছবিটি আসল না কৃত্তিম

লেখক:
প্রকাশ: ২ মাস আগে

চলমান বন্য পরিস্তিতিতে সামাজিক যোগাযোগ মাধ্যম ফেসবুকে আলোচনায় এক শিশুর ছবি। ছবিটি শেয়ার দিয়ে আবেগঘন পোস্ট দিয়েছেন অনেকে। ভাইরাল ছবিটিতে দেখা গেছে, এক শিশু গলা পর্যন্ত পানির নিচে ডুবে আছে। তার কপালে ভাজ এবং অপলক দৃষ্টিতে তাকিয়ে আছে।

বুধবার (২১ আগস্ট) বন্যা পরিস্থিতির ভয়াবহতা প্রকাশে একটি শিশুর ছবি সামাজিক যোগাযোগ মাধ্যমে ভাইরাল হয়েছে। দায়িত্বশীল ব্যক্তিরাও ওই ছবি শেয়ার করে বিভিন্ন বার্তা দিচ্ছেন।

ছবিটি নিয়ে মতামত দিয়েছেন আন্তর্জাতিক বার্তা সংস্থা এএফপির বাংলাদেশের ফ্যাক্ট-চেকবিষয়ক সম্পাদক কদরুদ্দিন শিশির। তিনি বলেছেন, ছবিটি কৃত্তিম বুদ্ধিমত্তা (এআই) দিয়ে তৈরি করার সম্ভবনা সবচেয়ে বেশি।

এক ফেসবুক পোস্টে তিনি লিখিছেন, আমি ৩টি এআই ডিটেক্টর টুলে ছবিটি ট্রাই করে ৩ ধরনের ফলাফল পেয়েছি। একটিতে দেখিয়েছে ছবিটি ৯১ শতাংশ এআই জেনারেটেড। অন্যটিতে ৪০ শতাংশ এবং একটিতে দেখাচ্ছে ‘লাইকলি হিউম্যান মেইড’। ছবিটির অরিজিনাল ভার্সন পেলে হয়তো এই ভিন্নতর ফলাফল হতো না। কোনো এআই জেনেরেটেড ছবির অরিজিনাল ভার্সন ডিটেক্টর টুলে চেক করলে মোটামুটি সব ক্ষেত্রেই কনক্লুসিভ ফলাফল পাওয়া যায়। (কোন ছবি একাধিক টুলের প্রতিটিতে ৭০ শতাংশের বেশি আইএই জেনারেটেড দেখালে আমরা সেটাকে কনক্লুসিভ ফলাফল হিসেবে গ্রহণ করে থাকি)। কিন্তু এই ছবির ক্ষেত্রে, বুঝাই যাচ্ছে শুধু টুল দিয়ে এআই জেনারেটেড কিনা তা নির্ধারণ করা সম্ভব হচ্ছে না।

তিনি বলেন, ছবিটি গতকাল থেকে অনলাইনে ছড়িয়েছে। নানানভাবে সার্চ করেও গতকালের আগে এবং সামাজিক মাধ্যমগুলোর বাইরে কোথাও এটি খুঁজে পাওয়া যায় না। … কোন পেশাদার ফটোগ্রাফার এটি তার সোশাল মিডিয়ায় প্রকাশ করে থাকতেন তাহলে এমন একটি আবেদনময়ী ছবিতে অবশ্যই তার নাম বা প্রতিষ্ঠানের নাম ওয়াটারমার্ক করে দেয়াটাই স্বাভাবিক ছিল। ছবিটির কোন ভার্সনে এমন কিছু দেখা যায় না।

ছবিতে যেভাবে একটি উন্মুক্ত পানিভর্তি এলাকায় ২/৩ বছরের বাচ্চাকে অভিভাবক ছাড়া দেখা যাচ্ছে সেটি অসম্ভব না হলেও খুব স্বাভাবিক নয়।

শিশুটির শারীরিক গঠন বিশ্লেষণ করে কদরুদ্দিন শিশির লিখেছেন, বাচ্চাটির ঠোঁটের গঠনও কিছুটা অস্বাভাবিক। একই সাথে তার চেহারায় আতঙ্কের কারণে চোখ ও কপালের একপাশে যে ভাঁজ (প্রকৃত ভাঁজ পড়বে কপালের ঠিক মাঝখান বরাবর) পড়েছে সেটিও স্বাভাবিক এক্সপ্রেশন মনে হচ্ছে না। সবমিলিয়ে বলা যায়, ছবিটি সত্য ঘটনার না হয়ে তৈরি করা (এআই জেনারেটেড) হওয়ার সম্ভাবনাই বেশি।

ফিচার এ সম্পর্কিত আরও পড়ুন: