নির্বাচনে প্রভাব বিস্তারে যত্রতত্র ডিপফেক ভিডিওর ব্যবহার, সমাধান কী?

|

বর্তমান যুগের আলোচিত প্রযুক্তি কৃত্রিম বুদ্ধিমত্তা বা এআই। এই প্রযুক্তির এক যুগান্তকারী সৃষ্টি ডিপফেক ভিডিও। সামাজিক যোগাযোগমাধ্যমে চোখ বুলালেই দেখা মিলতে পারে এমন ভিডিও। হয়তো দেখা যাচ্ছে, কোনো রাজনৈতিক ব্যক্তি গানের তালে নাচছেন বা দিচ্ছেন কোনো বক্তৃতা। কিন্তু বিষয়টি এ পর্যন্তই থেমে নেই। ডিপফেক নামক এই প্রযুক্তি ব্যবহার করে চলছে নানা রকম রাজনৈতিক কার্যক্রম। সুশীল সমাজের অনেকেই একে মারাত্মক হুমকি হিসেবেই দেখছেন।

বাংলাদেশের রাজনৈতিক অঙ্গনে ডিপফেক ভিডিওর ব্যবহার এখনও তেমনটা দেখা না গেলেও প্রতিবেশী দেশগুলোর নির্বাচনে প্রভাব বিস্তারের দেখা গেছে ডিপফেক ভিডিওর ব্যবহার।

গত বছরের নভেম্বর মাসে দক্ষিণ ভারতের তামিলনাড়ুর মুরালিকৃষ্ণান চিন্নাদুরাই অনলাইনে একটি লাইভ স্ট্রিম দেখছিলেন। সেখানে একজন নারী বক্তৃতা দিচ্ছিলেন। ভিডিওতে এই নারীকে তামিল টাইগার জঙ্গি গোষ্ঠীর প্রধান ভেলুপিল্লাই প্রভাকরণের মেয়ে, দুয়ারকা হিসেবে বলা হয়। কিন্তু সমস্যা হলো, দুয়ারকা হিসেবে যে নারী কথা বলছিলেন, তিনি ২০০৯ সালে শ্রীলংকায় গৃহযুদ্ধের সময় বিমান হামলায় মারা গেছেন। তার লাশও এমনকি তখন পাওয়া যায়নি।

এরপর মুরালিকৃষ্ণান খুব ভালোভাবে ভিডিওটি লক্ষ্য করেন এবং ভিডিওতে বেশ কিছু সমস্যা দেখতে পান। এবং বুঝতে পারেন ভিডিওটি কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি করা।

ভারতের নির্বাচনকে সামনে রেখে দেখা গেছে কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি করা ভিডিওর দৌরাত্ম্য। নির্বাচনী ক্যাম্পেইনের ভিডিও থেকে শুরু করে প্রার্থীর অবিকল কণ্ঠ নকল করে ভোটারদের করা হয়েছে ফোন কল।

কিন্তু পরিস্থিতি আরও জটিল হয়ে উঠতে পারে বলে আশঙ্কা করছেন বিশেষজ্ঞরা। কারণ প্রযুক্তি থেমে থাকবে না। প্রযুক্তি যদি আরও উন্নত হয় তবে বিপত্তি বাধতে পারে বলে আশঙ্কা তাদের। এ বিষয়ে ভারতের সাবেক প্রধান নির্বাচন কমিশনার এসওয়াই কুরেশি বলেন, নির্বাচনে প্রভাব বিস্তারে বরাবরই গুজব একটি হাতিয়ার হিসেবে ব্যবহার হয়ে আসছে। কিন্তু সামাজিক যোগাযোগমাধ্যমের যুগে এটি দাবানলের মতো ছড়িয়ে পড়তে পারে।

ভারতের রাজনৈতিক অঙ্গনেই যে শুধু কৃত্রিম-বুদ্ধিমত্তার ভিডিও ব্যবহার করা হয়েছে এমন নয়। পার্শ্ববর্তী দেশ পাকিস্তানে ইমরান খান জেলে থাকা অবস্থায় তাকে র‍্যালিতে দেখা গেছে ডিপফেক ভিডিওর কল্যাণে।

এদিকে ডিপফেক ভিডিও ব্যবহার করে ভারতের প্রধানমন্ত্রী নিজেই নির্বাচনী প্রচারণা চালিয়েছেন। যা হিন্দি ও তামিল ভাষায় রূপান্তর করে প্রচার করা হয়েছিল। কিন্তু এসব ভিডিওতে শব্দ বা বার্তা পরিবর্তন করে প্রচার করা সম্ভব। ফলে তৈরি হতো মারাত্মক ঝুঁকি।

গত মাসে বলিউড তারকা আমির খান ও রনবীর সিংয়ের দুটি ভিডিও ভাইরাল হয় সামাজিক যোগাযোগমাধ্যমে। সেখানে দেখা যায় এই দুই তারকা ভারতের বিরোধী দল কংগ্রেসের হয়ে নির্বাচনে প্রচারণা চালাচ্ছেন। এরপরই তারা দুইজন আইনশৃঙ্খলা রক্ষাকারী বাহিনীর দ্বারস্থ হন এবং অভিযোগ করেন, এটি ডিপফেক ভিডিও। এই ভিডিও তাদের অনুমতি ছাড়া তৈরি করা হয়েছে।

এর পর গেল ২৯ এপ্রিল নরেন্দ্র মোদি ডিপফেক ভিডিও নিয়ে উদ্বেগ প্রকাশ করেন। অভিযোগ করেন, তার এবং দলের সিনিয়র নেতাদের কথা বিকৃত করে প্রচার করা হচ্ছে। এরপরই এ ঘটনায় দুইজনকে গ্রেফতার করে দেশটির পুলিশ। এই দুইজন আম-আদমি পার্টি ও কংগ্রেসের কর্মী। তাদের বিরুদ্ধে স্বরাষ্ট্রমন্ত্রী অমিত শাহ’র কথা বিকৃত করে প্রচারের অভিযোগ আনা হয়েছে। অপরদিকে, একই অভিযোগ আছে ক্ষমতাসীন দল বিজেপির বিরুদ্ধে।

সমস্যার বিষয় হলো, এসব ভিডিও তৈরিতে গ্রেফতার হলেও এটি প্রতিরোধে কোনো সুনির্দিষ্ট নীতিমালা বা আইন নেই।

এ বিষয়ে তথ্য ও নিরাপত্তা গবেষক শ্রীনিবাস কোদালি বলেন, নীতিমালা না থাকার অর্থ হলো, আপনি যদি কোনো ভুল করে ধরা পড়েন তবে খুব জোর আপনাকে সামান্য শাস্তি দিয়ে ছেড়ে দেয়া হবে।

তথ্য বিশেষজ্ঞদের মতে কৃত্রিম বুদ্ধিমত্তার ব্যবহারের বড় পরিসরে নীতিমালা না গড়ে তুললে তা নিরাপদ তথ্য সরবরাহে মারাত্মক ঝুঁকি তৈরি করবে।

এটিএম/


সম্পর্কিত আরও পড়ুন




Leave a reply