با توسعه روزافزون هوش مصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرك دیپ فیك به مسئله ای اساسی بدل شده است.
به گزارش رادیو پیام از مهر، تولید دیپ فیك (deep fake) یكی از توانمندیهای هوش مصنوعی است كه برای ایجاد تصاویر و ویدئو و صداهای متقاعدكننده جعلی استفاده میشود. این اصطلاح هم فناوری و هم محتوای گمراهكنندهای كه تولید میكند را در بر میگیرد. دیپفیكها اغلب در مواردی كه جای یك نفر با شخصی دیگر عوض میشود، محتوای منبع موجود را تغییر میدهند. آنها همچنین قادرند محتوایی كاملاً تازه ایجاد كنند كه در آن شخصی در حال انجام یا گفتن مطلبی است كه در واقعیت نگفته و صحت ندارد.
بزرگترین خطری كه دیپفیك ایجاد میكند، تواناییاش در انتشار اطلاعات نادرستی است كه به نظر قابلاعتماد میآید.
مورد دیگر نگرانیهایی است كه در مورد احتمال دخالت دیپفیك در انتخابات و تبلیغات انتخاباتی مطرح شده است. دیپفیكها درحالیكه تهدید جدی هستند در مواردی مانند بازیهای ویدئویی و برنامههای پشتیبانی مشتری و پاسخ به تماسگیرندگان، كاربردهای قانونی دارند.
همانطور كه سابقاً اشاره شد، ویدئوهای دیپفیك شامل فیلمهای دستكاری شده و مصنوعی هستند كه تغییراتی را در چهره یا بدن افراد ایجاد كرده یا كلاً هویت آنها را تغییر میدهد و هویت شخص دیگری را جایگزین میكند. یك نوع دیگر از دیپفیك، جعل صدای افراد است كه در مواردی میتواند بسیار خطرناك باشد. برای مثال مدیرعامل یك شركت انرژی در انگلستان تلفنی از رئیس شركت مادر خود دریافت كرده و از او مبلغ هنگفتی درخواست كرده بود و مشخص شد كه فردی از دیپفیك استفاده كرده و صدای مدیر واقعی را جعل كرده است.
عكسهای دیپفیك هم از انواع دیگر محتواهای جعلی است كه بسیار واقعی به نظر آمده و ساخت آن برای كاربران كار دشواری نیست. در یكی از اولین تحقیقات درباره این پدیده، فیسبوك دهها حساب كاربری تحت حمایت دولت را پیدا كرد كه از تصاویر جعلی بهعنوان عكس پروفایل استفاده میكردند.
شیوع محتوای جعلی
یكی دیگر از خطرات هوش مصنوعی انتشار اطلاعات نادرست به علت تعصبات و یا اشتباهات در منابع یادگیری آن است. هوش مصنوعیهای مولد زبانی مانند «ChatGPT» بیشتر از انواع مدلهای دیگر آن احتمال انتشار اطلاعات نادرست را دارند.
هوش مصنوعی مولد قادر است اطلاعات نادرست و جعلی را به طور گسترده و مانند ویروس شیوع دهد. الگوریتمهای هوش مصنوعی مولد میتوانند متون، تصاویر و ویدئوهای جعلی ایجاد كنند كه تمییز آن از محتوای واقعی بسیار سخت است. در دوره همهگیری ویروس كرونا، یكی از آسیبهایی كه بعد از ویروس روح و روان مخاطبان را هدف گرفته بود اخبار جعلی و شایعات بود. هوش مصنوعی مولد قادر است چالشهای مربوط به انتشار اطلاعات نادرست و اخبار جعلی را چندین برابر كند و آسیبهایی مانند بازیدادن افكار و دیدگاه عمومی، تطهیر نامهای ناشایست و تخریب نامهای شایسته را در پی داشته باشد.
حوزههای در معرض آسیب
الگوریتمهای هوش مصنوعی مولد، قادرند محتواهای تصویری و چندرسانهای ایجاد كنند كه كاملاً ساختگی بوده و از محتوای واقعی كاملاً دور هستند. دیپفیكها میتوانند برای ایجاد مدارك جعلی، تقلید از افراد و انتشار محتواهای نامناسب و مخالف شئون استفاده شوند. تشخیص محتوای واقعی از محتوای غیرواقعی و تغییریافته كار دشواری است و این مسئله قادر است پیامدهایی جدی در حوزه سیاست و انتخابات، سرگرمی و روزنامهنگاری داشته باشد.
یكی دیگر از حوزههایی كه ممكن است با دیپفیك به خطر بیفتد، حوزه قضاوت است. با همهگیرشدن استفاده از هوش مصنوعی مولد، مجرمان و افراد دارای نیت سو با ساختن ویدئو و تصاویر جعلی قادرند فرایند دادرسی را پیچیدهتر كنند.
حوادث مهم سیاسی و اجتماعی نیز میتواند به بستری برای جولان سو استفادهكنندگان از هوش مصنوعی مولد تبدیل شود.
انتخابات
همانطور كه اشاره شد، انتخابات و دموكراسی یكی از عرصههایی است كه در عصر جدید نیاز به مراقبتهای بیشتر دارد. انتخاب درست با تحقیق بر مبنای اطلاعات صحیح صورت میگیرد و در غیر این صورت مردم بازیچه دست ذینفعان خواهند شد. در چنین شرایطی كشورهایی كه در معرض انتخابات قرار دارند مانند ایالات متحده آمریكا در معرض آسیب دیپ فیك هستند و بنظر میرسد قانونگذاران به تكاپوی تنظیمگری این حوزه خواهند افتاد یا متحمل آسیبهای جبران ناپذیر خواهند شد!
كشور چین، در خط مقدم مقابله با محتوای دیپفیك
در بیشتر نقاط جهان، مسئولین هنوز اقدامی در جهت مقابله با دیپفیك و انتشار اخبار جعلی توسط هوش مصنوعی مولد نكردهاند و این به دلیل شناخت كم آنها از این فناوری نو است. مادامی كه تكنولوژی پیچیدهتر و در دسترس تر برای عموم میشود، مقابله با خطرات و آسیبهای آن نیز دشوارتر میشود.
چین كه یكی از بسترهای توسعه هوش مصنوعی مولد است سعی دارد تا پیش از سایر كشورها به مقابله با آسیبهای دیپفیك برخیزد. این كشور اخیراً قوانین گستردهای تصویب كرده كه بر اساس آن مطالب دستكاری شده باید رضایت شخصیت اصلی آن محتوا را داشته باشد و امضای آن شخص پای اثر باشد و جعلی بودن آن نیز اعلام شود. در این قوانین چین مسئولیت رد شایعات را بر عهده ارائهدهندگان خدمات ساخت محتواهای دیپفیك گذاشته است.
مشكلی كه برای مقابله با تكنولوژی جدید وجود دارد این است كه افرادی كه قصد سو استفاده دارند عموماً باهویت جعلی و یا بیهویت و مخفیانه دست به اقدامات نادرست میزنند. شناسایی آنها به همین دلیل آسان نیست، بنابراین سایر كشورها هنوز موفق به تدوین قوانین تنظیمگرانه هوش مصنوعی مولد نشدهاند. سختگیریهای زیاد هم ممكن است آزادی كاربران را به خطر بیندازد كه تا كنون كشوری اقدام به اعمال محدودیتهای شدید در این حوزه نكرده است.
به گفته كارشناسان با وجود موانعی كه سر راه پكن قرار دارد، ثبات قدم كشور چین در این زمینه، به سایر كشورها كمك كرده تا اقدام به مقابله با دیپفیك كنند. سابقهها بر این منوال است كه قانونگذاران در سراسر جهان ترجیح میدهند قبل از تدوین چارچوبهای جدید، روندهای قانونی سایر كشورها را تقلید یا رد كنند.
راویت دونان، محقق فوق دكترا و صاحب شركت «Colaboeative AI» میگوید: «این عرصه برای تعیین سیاست جهانی سرنوشتساز است، زیرا كشورها در حال رقابتاند تا در آخر مشخص شود كه چه كسی قاعده و لحن این بازی را مشخص میكند.»
دیپفیك و برخی فواید
با وجود همه چالشهای ذكر شده برای این فناوری، دیپفیك در بسیاری از صنایع میتواند نویدبخش باشد. سال گذشته، پلیس هلند یك پرونده قدیمی سال 2003 قتل را با ایجاد آواتاری دیجیتالی از قربانی 13 ساله و انتشار تصاویری از راهرفتن او در میان گروهی از خانواده و دوستانش را دوباره به جریان انداخت. این فناوری همچنین میتواند برای ساختن برنامههای طنز و سرگرمی، خریداران آنلاین لباس كه میتوانند با استفاده از این فناوری لباسها را در اتاقهای تزئین مجازی امتحان كنند و انیمیشنسازان مفید باشد.