Home / খবর / শিল্প-বাণিজ্য / এআই ফোটো-ভিডিও বানিয়ে জালিয়াতি! ভারতে ক্রমশ বড় বিপদ হয়ে উঠছে ডিপফেক, সতর্ক করছেন বিশেষজ্ঞরা

এআই ফোটো-ভিডিও বানিয়ে জালিয়াতি! ভারতে ক্রমশ বড় বিপদ হয়ে উঠছে ডিপফেক, সতর্ক করছেন বিশেষজ্ঞরা

কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তিতে তৈরি ডিপফেক এখন ভারতে একটি বড় হুমকি হিসাবে দেখা দিচ্ছে। শুধু প্রতারণা নয়, ব্যক্তির মর্যাদা, গোপনীয়তা ও মানহানি ঘটাতে এই প্রযুক্তি ক্রমেই ব্যবহৃত হচ্ছে বলে সতর্ক করেছেন বিশেষজ্ঞরা।

ভিডিও ও অডিওকে নকল করে তৈরি করা এই সিন্থেটিক কনটেন্ট নানা ক্ষেত্রে অপব্যবহার হচ্ছে—কর্পোরেট জালিয়াতি, রাজনৈতিক বদনাম ছড়ানো, সাধারণ মানুষকে অপমান বা হেনস্তা করার মতো ঘটনায় ডিপফেক বাড়ছে উদ্বেগ।

কর্পোরেট প্রতারণার ক্ষেত্রে জালিয়াতেরা কখনও কোনও ব্যবসায়ীর কণ্ঠস্বর নকল করে, কখনও তার চেহারার আদলে ভিডিও বানিয়ে আর্থিক জালিয়াতি করছে। রাজনীতিতেও নেতাদের বক্তব্য বা কর্মকাণ্ড বিকৃত করে ছড়ানো হচ্ছে বিভ্রান্তি। সাধারণ মানুষকেও লক্ষ্য করে বানানো ডিপফেক ভিডিও-অডিও অনলাইনে ছড়িয়ে মানহানি ঘটানো হচ্ছে।

সবচেয়ে বড় সমস্যা, শক্তিশালী আইনগত সুরক্ষা এখনো পুরোপুরি গড়ে ওঠেনি, আর ডিপফেক শনাক্তকরণ প্রযুক্তিও এখনো যথেষ্ট দ্রুত বা নির্ভুল নয়। যদিও ডিপফেক চিহ্নিত করার গবেষণা চলছে, বর্তমানে কোনো প্রতিরক্ষা ব্যবস্থা পুরোপুরি কার্যকর নয়।

সরকারও বিষয়টি নিয়ে নড়েচড়ে বসেছে। ইলেকট্রনিক্স ও তথ্যপ্রযুক্তি মন্ত্রক (MeitY) আরও উন্নত ডিপফেক শনাক্তকরণ প্রযুক্তি তৈরির জন্য গবেষণায় অর্থ দিচ্ছে। কিন্তু বিশেষজ্ঞদের মতে, শুধু গবেষণা নয়—কঠোর শাস্তির বিধান, শক্ত নীতিনিয়ম এবং দ্রুত আইনি ব্যবস্থার উন্নতি জরুরি, যাতে মানুষের পরিচয়, মর্যাদা ও গোপনীয়তা রক্ষা করা যায়।

ডিপফেকের অপব্যবহার বাড়তে থাকলে তা ব্যক্তিগত গোপনীয়তা ক্ষুণ্ণ করবে, সম্মানহানি ঘটাবে এবং অনলাইন তথ্যের ওপর মানুষের আস্থা কমিয়ে দেবে—তাই এখনই এআই-চালিত এই নতুন হুমকি মোকাবিলার উপায় খুঁজে বের করা জরুরি।

alternatetext
Tagged:

Leave a Reply

Your email address will not be published. Required fields are marked *