গত বছরের মার্চে এক ভিডিওতে দেখা যায় প্রেসিডেন্ট ভলোদিমির জেলেনস্কি রাশিয়ার কাছে অস্ত্রসহ আত্মসমর্পণ করতে বলছেন ইউক্রেইনবাসীকে।
নিশ্চিতভাবে সেটি ছিল ডিপফেইক ভিডিও —কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি ব্যবহার করে একটি ভিডিওতে একজনের চেহারার জায়গায় অন্য একজনের চেহারা বসিয়ে দিয়ে কেউ একজনের ডিজিটাল প্রতিমূর্তি বানানোর প্রযুক্তি।
এআইয়ের উন্নতির সঙ্গে সঙ্গে যেহেতু ডিপফেইক বানানো সহজতর হয়ে গেছে, তাই খুব দ্রুত এদেরকে শনাক্ত করার প্রযুক্তি বের করাও অতি জরুরী হয়ে গেছে।
ইনটেল বলছে তাদের কাছে সমাধান আছে এবং তা হলো একজনের মুখের রক্তপ্রবাহ।
কোম্পানিটি প্রযুক্তিটির নাম দিয়েছে “ফেইকক্যাচার”।
কিভাবে প্রযুক্তিটি কাজ করে, বিবিসির প্রতিনিধিকে তা ব্যাখ্যা করেন ইনটেল ল্যাবের গবেষক ইলকে দামির।
“আসল ভিডিওগুলোর বিশেষত্ব কি? এগুলো কিভাবে আসল? ভিডিওর মানুষটি যে সত্যিকারের, তা নিশ্চিত হওয়ার উপায় কী?”
প্রযুক্তিটির মূল কৌশলটি হলো 'ফটোপ্লেথিসমোগ্রাফি' (পিপিজি), যা রক্তপ্রবাহের পরিবর্তন শনাক্ত করে।
ডিপফেইকের মাধ্যমে তৈরি করা চেহারা এমন সিগন্যাল দেয় না– জানালেন তিনি।
তাছাড়া ভিডিওর সত্যতা যাচাইয়ে প্রযুক্তিটি চোখের নড়াচড়াও বিশ্লেষণ করে।
“যখন মানুষ কোনো কিছুর দিকে তাকায়, সাধারণত মানুষ একটি বিন্দুর দিকে তাকায়। মানে আমি যদি আপনার দিকে তাকাই, তার অর্থ হলো আমার চোখ থেকে আপনার দিকে রশ্মি নিক্ষেপ করছি। কিন্তু ডিপফেইকের বেলায় চোখের দৃষ্টি কোনো নির্দিষ্ট বিন্দুতে স্থির থাকে না।” - বলেন তিনি।
এই দুটো কৌশল কাজে লাগিয়ে ইনটেল কয়েক সেকেন্ডের মধ্যেই সত্যিকারের ভিডিও এবং নকল ভিডিওকে আলাদাভাবে শনাক্ত করতে পারবে, বলেছে বিবিসি।
কোম্পানিটি দাবি করে তাদের ফেইকক্যাচার প্রযুক্তিটি শতকরা ৯৬ ভাগ নির্ভুল। এমন দাবির পর বিবিসির পক্ষ থেকে প্রযুক্তিটিকে পরীক্ষা করে দেখার আগ্রহ প্রকাশ করলে, তাতে রাজি হয় ইনটেল।
বিবিসি জানায়, তারা সাবেক মার্কিন প্রেসিডেন্ট ডনাল্ড ট্রাম্প এবং বর্তমান প্রেসিডেন্ট জো বাইডেনের ডজনখানেক ভিডিও ক্লিপ ব্যবহার করে।
তাদের মধ্যে কিছু ছিলো আসল এবং কিছু ছিলো এমআইটির তৈরি করা ডিপফেইক।
পরীক্ষার পর বিবিসির ব্যাপারে মন্তব্য হলো: ডিপফেইক শনাক্ত করতে প্রযুক্তিটি ‘বেশ কাজের’।
বিবিসি বলেছে তাদের বাছাইকৃত নকলগুলোর মধ্যে বেশিরভাগই ছিলো লিপ-সিঙ্কড ফেইক —যেখানে সত্যিকারের ভিডিওগুলোতে মুখ এবং কণ্ঠস্বর বদল করা হয়েছিলো।
সেগুলোর প্রতিটিকেই সফলভাবে শনাক্ত করতে সক্ষম হয় প্রযুক্তিটি।
তবে আসল ভিডিও পরীক্ষার বেলায় গড়বড় শুরু করে প্রযুক্তিটি, বলেছ বিবিসি।
বেশ কয়েকবার আসল ভিডিওকে নকল বলে চিহ্নিত করেছে ফেইকক্যাচার।
ভিডিওতে পিক্সেলের সংখ্যা যত বেড়ে যায় রক্ত চলাচল শনাক্ত করা ততটাই দুষ্কর হয়ে যায় প্রযুক্তিটির জন্য।
প্রযুক্তিটিতে অডিও বিশ্লেষণের কোনো সুযোগ নেই। কিছু ভিডিও দেখতে আসল মনে হলেও অডিও শুনতে গিয়ে দেখা যায় সেটি নকল।
তবে যদি কোনো আসল ভিডিওকে নকল বলে চিহ্নিত করে সফটওয়্যারটি, তাহলে আসলেই তা দুশ্চিন্তার বিষয়, এতে বড় ধরনের সংকট তৈরি হতে পারে।
এ ব্যাপারে মিজ দামিরের কাছে জিজ্ঞেস করা হলে তিনি বলেন, “কোনো কিছু নকল হিসাবে শনাক্ত করা আর ‘সাবধান, এটা নকল হতে পারে’ এই দুটোর মধ্যে তফাত রয়েছে।”
তিনি বলেন —প্রযুক্তিটি অতিরিক্ত সাবধানী, কোনো নকলকে আসল বলে চিহ্নিত করার চাইতে সবগুলো নকলকে শনাক্ত করে সঙ্গে দুয়েকটা আসল ভিডিওকেও চিহ্নিত করাটা শ্রেয়।
ডিপফেইক খুবই সুক্ষ্ম হতে পারে। দুই সেকন্ডের একটি ক্লিপ পরিবর্তন করে সেগুলোকে রাজনৈতিক প্রচারণায় ব্যবহার করা যেতে পারে। সেগুলো নিন্মমানের হতে পারে। কণ্ঠস্বর বদলে দিয়েও একটি নকল বানানো যেতে পারে।
“তীব্র প্রতিযোগিতাপূর্ণ” বাস্তব দুনিয়ার ব্যবহারের জন্য ফেইকক্যাচারের সক্ষমতা প্রশ্নবিদ্ধ —বলেছেন ইলিনয়ের নর্থ ইস্টার্ন ইউনিভার্সিটির সহকারী অধ্যাপক এবং ডিপফেইক বিশেষজ্ঞ ম্যাট গ্রোহ।
“তাদের প্রাথমিক নিরীক্ষায় ব্যবহৃত পরিসংখ্যানকে আমি সন্দেহ করছি না” তিনি বলেন “কিন্তু আমার সন্দেহ, বাস্তব দুনিয়ার প্রেক্ষাপটে সেই পরিসংখ্যান কতোটা প্রাসঙ্গিক।”
এই প্রশ্নের সাপেক্ষে ফেইকক্যাচারের সক্ষমতা যাচাই করা দুরহ, বলেছে বিবিসির পর্যবেক্ষক দলটি।
পরিসংখ্যান অনুযায়ী ফেইশল রিকগনিশনের মতো প্রযুক্তিগুলো নির্ভুলতার হার সাধারণত খুবই উচ্চ হয়।
কিন্তু বাস্তবে প্রয়োগ করে দেখা গেছে, সেগুলোও ততটা নির্ভুল নয়।
ফেইকক্যাচারকে কঠোর পরীক্ষার মধ্যে দিয়ে যেতে হয়েছে বলে দাবি করেছে ইনটেল। এর মধ্যে ছিলো “ওয়াইল্ড টেস্ট” যেখানে কোম্পানিটি ১৪০ টি নকল ভিডিও এবং সেগুলোর আসল অংশগুলোকেও একই সঙ্গে পরীক্ষার জন্য দেওয়া হয় প্রযুক্তিটিকে।
সেই পরীক্ষায় সাফল্যের পরিমাণ ছিলো ৯১ শতাংশ।
তবে ম্যাট গ্রোহসহ আরও অন্য গবেষকরা ইনটেলের প্রযুক্তিটিকে নিজেরা স্বাধীন ভাবে পরীক্ষা করে দেখতে চেয়েছেন। তারা বলেছেন, ইনটেল নিজেদের প্রযুক্তিকে নিজেরা পরীক্ষা করে একটা ফলাফল ঘোষণা করবে, সেটা যথেষ্ট নয়।
“আমি সেই প্রযুক্তিগুলোকে পরীক্ষা করে দেখতে চাই” বলেছেন গ্রোহ।
“আমি মনে করি বাস্তব দুনিয়ায় ব্যবহারের জন্য সিস্টেমটি কতোটা নির্ভুল সেটা আমাদের নিজেদের মতো করে পরীক্ষা করে দেখাটা জরুরী।”
একটি ভিডিওকে নকল বা আসল বলে শনাক্ত করা সত্যিই খুব দুরূহ - এবং এই প্রযুক্তি নিশ্চিতভাবে সম্ভবনাময় বলে মন্তব্য করেছ বিবিসি।
ঠিকানা/এসআর
নিশ্চিতভাবে সেটি ছিল ডিপফেইক ভিডিও —কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি ব্যবহার করে একটি ভিডিওতে একজনের চেহারার জায়গায় অন্য একজনের চেহারা বসিয়ে দিয়ে কেউ একজনের ডিজিটাল প্রতিমূর্তি বানানোর প্রযুক্তি।
এআইয়ের উন্নতির সঙ্গে সঙ্গে যেহেতু ডিপফেইক বানানো সহজতর হয়ে গেছে, তাই খুব দ্রুত এদেরকে শনাক্ত করার প্রযুক্তি বের করাও অতি জরুরী হয়ে গেছে।
ইনটেল বলছে তাদের কাছে সমাধান আছে এবং তা হলো একজনের মুখের রক্তপ্রবাহ।
কোম্পানিটি প্রযুক্তিটির নাম দিয়েছে “ফেইকক্যাচার”।
কিভাবে প্রযুক্তিটি কাজ করে, বিবিসির প্রতিনিধিকে তা ব্যাখ্যা করেন ইনটেল ল্যাবের গবেষক ইলকে দামির।
“আসল ভিডিওগুলোর বিশেষত্ব কি? এগুলো কিভাবে আসল? ভিডিওর মানুষটি যে সত্যিকারের, তা নিশ্চিত হওয়ার উপায় কী?”
প্রযুক্তিটির মূল কৌশলটি হলো 'ফটোপ্লেথিসমোগ্রাফি' (পিপিজি), যা রক্তপ্রবাহের পরিবর্তন শনাক্ত করে।
ডিপফেইকের মাধ্যমে তৈরি করা চেহারা এমন সিগন্যাল দেয় না– জানালেন তিনি।
তাছাড়া ভিডিওর সত্যতা যাচাইয়ে প্রযুক্তিটি চোখের নড়াচড়াও বিশ্লেষণ করে।
“যখন মানুষ কোনো কিছুর দিকে তাকায়, সাধারণত মানুষ একটি বিন্দুর দিকে তাকায়। মানে আমি যদি আপনার দিকে তাকাই, তার অর্থ হলো আমার চোখ থেকে আপনার দিকে রশ্মি নিক্ষেপ করছি। কিন্তু ডিপফেইকের বেলায় চোখের দৃষ্টি কোনো নির্দিষ্ট বিন্দুতে স্থির থাকে না।” - বলেন তিনি।
এই দুটো কৌশল কাজে লাগিয়ে ইনটেল কয়েক সেকেন্ডের মধ্যেই সত্যিকারের ভিডিও এবং নকল ভিডিওকে আলাদাভাবে শনাক্ত করতে পারবে, বলেছে বিবিসি।
কোম্পানিটি দাবি করে তাদের ফেইকক্যাচার প্রযুক্তিটি শতকরা ৯৬ ভাগ নির্ভুল। এমন দাবির পর বিবিসির পক্ষ থেকে প্রযুক্তিটিকে পরীক্ষা করে দেখার আগ্রহ প্রকাশ করলে, তাতে রাজি হয় ইনটেল।
বিবিসি জানায়, তারা সাবেক মার্কিন প্রেসিডেন্ট ডনাল্ড ট্রাম্প এবং বর্তমান প্রেসিডেন্ট জো বাইডেনের ডজনখানেক ভিডিও ক্লিপ ব্যবহার করে।
তাদের মধ্যে কিছু ছিলো আসল এবং কিছু ছিলো এমআইটির তৈরি করা ডিপফেইক।
পরীক্ষার পর বিবিসির ব্যাপারে মন্তব্য হলো: ডিপফেইক শনাক্ত করতে প্রযুক্তিটি ‘বেশ কাজের’।
বিবিসি বলেছে তাদের বাছাইকৃত নকলগুলোর মধ্যে বেশিরভাগই ছিলো লিপ-সিঙ্কড ফেইক —যেখানে সত্যিকারের ভিডিওগুলোতে মুখ এবং কণ্ঠস্বর বদল করা হয়েছিলো।
সেগুলোর প্রতিটিকেই সফলভাবে শনাক্ত করতে সক্ষম হয় প্রযুক্তিটি।
তবে আসল ভিডিও পরীক্ষার বেলায় গড়বড় শুরু করে প্রযুক্তিটি, বলেছ বিবিসি।
বেশ কয়েকবার আসল ভিডিওকে নকল বলে চিহ্নিত করেছে ফেইকক্যাচার।
ভিডিওতে পিক্সেলের সংখ্যা যত বেড়ে যায় রক্ত চলাচল শনাক্ত করা ততটাই দুষ্কর হয়ে যায় প্রযুক্তিটির জন্য।
প্রযুক্তিটিতে অডিও বিশ্লেষণের কোনো সুযোগ নেই। কিছু ভিডিও দেখতে আসল মনে হলেও অডিও শুনতে গিয়ে দেখা যায় সেটি নকল।
তবে যদি কোনো আসল ভিডিওকে নকল বলে চিহ্নিত করে সফটওয়্যারটি, তাহলে আসলেই তা দুশ্চিন্তার বিষয়, এতে বড় ধরনের সংকট তৈরি হতে পারে।
এ ব্যাপারে মিজ দামিরের কাছে জিজ্ঞেস করা হলে তিনি বলেন, “কোনো কিছু নকল হিসাবে শনাক্ত করা আর ‘সাবধান, এটা নকল হতে পারে’ এই দুটোর মধ্যে তফাত রয়েছে।”
তিনি বলেন —প্রযুক্তিটি অতিরিক্ত সাবধানী, কোনো নকলকে আসল বলে চিহ্নিত করার চাইতে সবগুলো নকলকে শনাক্ত করে সঙ্গে দুয়েকটা আসল ভিডিওকেও চিহ্নিত করাটা শ্রেয়।
ডিপফেইক খুবই সুক্ষ্ম হতে পারে। দুই সেকন্ডের একটি ক্লিপ পরিবর্তন করে সেগুলোকে রাজনৈতিক প্রচারণায় ব্যবহার করা যেতে পারে। সেগুলো নিন্মমানের হতে পারে। কণ্ঠস্বর বদলে দিয়েও একটি নকল বানানো যেতে পারে।
“তীব্র প্রতিযোগিতাপূর্ণ” বাস্তব দুনিয়ার ব্যবহারের জন্য ফেইকক্যাচারের সক্ষমতা প্রশ্নবিদ্ধ —বলেছেন ইলিনয়ের নর্থ ইস্টার্ন ইউনিভার্সিটির সহকারী অধ্যাপক এবং ডিপফেইক বিশেষজ্ঞ ম্যাট গ্রোহ।
“তাদের প্রাথমিক নিরীক্ষায় ব্যবহৃত পরিসংখ্যানকে আমি সন্দেহ করছি না” তিনি বলেন “কিন্তু আমার সন্দেহ, বাস্তব দুনিয়ার প্রেক্ষাপটে সেই পরিসংখ্যান কতোটা প্রাসঙ্গিক।”
এই প্রশ্নের সাপেক্ষে ফেইকক্যাচারের সক্ষমতা যাচাই করা দুরহ, বলেছে বিবিসির পর্যবেক্ষক দলটি।
পরিসংখ্যান অনুযায়ী ফেইশল রিকগনিশনের মতো প্রযুক্তিগুলো নির্ভুলতার হার সাধারণত খুবই উচ্চ হয়।
কিন্তু বাস্তবে প্রয়োগ করে দেখা গেছে, সেগুলোও ততটা নির্ভুল নয়।
ফেইকক্যাচারকে কঠোর পরীক্ষার মধ্যে দিয়ে যেতে হয়েছে বলে দাবি করেছে ইনটেল। এর মধ্যে ছিলো “ওয়াইল্ড টেস্ট” যেখানে কোম্পানিটি ১৪০ টি নকল ভিডিও এবং সেগুলোর আসল অংশগুলোকেও একই সঙ্গে পরীক্ষার জন্য দেওয়া হয় প্রযুক্তিটিকে।
সেই পরীক্ষায় সাফল্যের পরিমাণ ছিলো ৯১ শতাংশ।
তবে ম্যাট গ্রোহসহ আরও অন্য গবেষকরা ইনটেলের প্রযুক্তিটিকে নিজেরা স্বাধীন ভাবে পরীক্ষা করে দেখতে চেয়েছেন। তারা বলেছেন, ইনটেল নিজেদের প্রযুক্তিকে নিজেরা পরীক্ষা করে একটা ফলাফল ঘোষণা করবে, সেটা যথেষ্ট নয়।
“আমি সেই প্রযুক্তিগুলোকে পরীক্ষা করে দেখতে চাই” বলেছেন গ্রোহ।
“আমি মনে করি বাস্তব দুনিয়ায় ব্যবহারের জন্য সিস্টেমটি কতোটা নির্ভুল সেটা আমাদের নিজেদের মতো করে পরীক্ষা করে দেখাটা জরুরী।”
একটি ভিডিওকে নকল বা আসল বলে শনাক্ত করা সত্যিই খুব দুরূহ - এবং এই প্রযুক্তি নিশ্চিতভাবে সম্ভবনাময় বলে মন্তব্য করেছ বিবিসি।
ঠিকানা/এসআর