توانمندی‌های هوش مصنوعی هوش مصنوعی و معضل نابودی اعتماد عمومی

با توسعه روزافزون هوش مصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرك دیپ فیك به مسئله ای اساسی بدل شده است.

1402/04/28
|
09:22
|

به گزارش رادیو پیام از مهر، تولید دیپ فیك (deep fake) یكی از توانمندی‌های هوش مصنوعی است كه برای ایجاد تصاویر و ویدئو و صداهای متقاعدكننده جعلی استفاده می‌شود. این اصطلاح هم فناوری و هم محتوای گمراه‌كننده‌ای كه تولید می‌كند را در بر می‌گیرد. دیپ‌فیك‌ها اغلب در مواردی كه جای یك نفر با شخصی دیگر عوض می‌شود، محتوای منبع موجود را تغییر می‌دهند. آن‌ها همچنین قادرند محتوایی كاملاً تازه ایجاد كنند كه در آن شخصی در حال انجام یا گفتن مطلبی است كه در واقعیت نگفته و صحت ندارد.

بزرگ‌ترین خطری كه دیپ‌فیك ایجاد می‌كند، توانایی‌اش در انتشار اطلاعات نادرستی است كه به نظر قابل‌اعتماد می‌آید.

مورد دیگر نگرانی‌هایی است كه در مورد احتمال دخالت دیپ‌فیك در انتخابات و تبلیغات انتخاباتی مطرح شده است. دیپ‌فیك‌ها درحالی‌كه تهدید جدی هستند در مواردی مانند بازی‌های ویدئویی و برنامه‌های پشتیبانی مشتری و پاسخ به تماس‌گیرندگان، كاربردهای قانونی دارند.

همان‌طور كه سابقاً اشاره شد، ویدئوهای دیپ‌فیك شامل فیلم‌های دست‌كاری شده و مصنوعی هستند كه تغییراتی را در چهره یا بدن افراد ایجاد كرده یا كلاً هویت آن‌ها را تغییر می‌دهد و هویت شخص دیگری را جایگزین می‌كند. یك نوع دیگر از دیپ‌فیك، جعل صدای افراد است كه در مواردی می‌تواند بسیار خطرناك باشد. برای مثال مدیرعامل یك شركت انرژی در انگلستان تلفنی از رئیس شركت مادر خود دریافت كرده و از او مبلغ هنگفتی درخواست كرده بود و مشخص شد كه فردی از دیپ‌فیك استفاده كرده و صدای مدیر واقعی را جعل كرده است.

عكس‌های دیپ‌فیك هم از انواع دیگر محتواهای جعلی است كه بسیار واقعی به نظر آمده و ساخت آن برای كاربران كار دشواری نیست. در یكی از اولین تحقیقات درباره این پدیده، فیس‌بوك ده‌ها حساب كاربری تحت حمایت دولت را پیدا كرد كه از تصاویر جعلی به‌عنوان عكس پروفایل استفاده می‌كردند.

شیوع محتوای جعلی

یكی دیگر از خطرات هوش مصنوعی انتشار اطلاعات نادرست به علت تعصبات و یا اشتباهات در منابع یادگیری آن است. هوش مصنوعی‌های مولد زبانی مانند «ChatGPT» بیشتر از انواع مدل‌های دیگر آن احتمال انتشار اطلاعات نادرست را دارند.

هوش مصنوعی مولد قادر است اطلاعات نادرست و جعلی را به طور گسترده و مانند ویروس شیوع دهد. الگوریتم‌های هوش مصنوعی مولد می‌توانند متون، تصاویر و ویدئوهای جعلی ایجاد كنند كه تمییز آن از محتوای واقعی بسیار سخت است. در دوره همه‌گیری ویروس كرونا، یكی از آسیب‌هایی كه بعد از ویروس روح و روان مخاطبان را هدف گرفته بود اخبار جعلی و شایعات بود. هوش مصنوعی مولد قادر است چالش‌های مربوط به انتشار اطلاعات نادرست و اخبار جعلی را چندین برابر كند و آسیب‌هایی مانند بازی‌دادن افكار و دیدگاه عمومی، تطهیر نام‌های ناشایست و تخریب نام‌های شایسته را در پی داشته باشد.

حوزه‌های در معرض آسیب

الگوریتم‌های هوش مصنوعی مولد، قادرند محتواهای تصویری و چندرسانه‌ای ایجاد كنند كه كاملاً ساختگی بوده و از محتوای واقعی كاملاً دور هستند. دیپ‌فیك‌ها می‌توانند برای ایجاد مدارك جعلی، تقلید از افراد و انتشار محتواهای نامناسب و مخالف شئون استفاده شوند. تشخیص محتوای واقعی از محتوای غیرواقعی و تغییریافته كار دشواری است و این مسئله قادر است پیامدهایی جدی در حوزه سیاست و انتخابات، سرگرمی و روزنامه‌نگاری داشته باشد.

یكی دیگر از حوزه‌هایی كه ممكن است با دیپ‌فیك به خطر بیفتد، حوزه قضاوت است. با همه‌گیرشدن استفاده از هوش مصنوعی مولد، مجرمان و افراد دارای نیت سو با ساختن ویدئو و تصاویر جعلی قادرند فرایند دادرسی را پیچیده‌تر كنند.

حوادث مهم سیاسی و اجتماعی نیز می‌تواند به بستری برای جولان سو استفاده‌كنندگان از هوش مصنوعی مولد تبدیل شود.

انتخابات

همانطور كه اشاره شد، انتخابات و دموكراسی یكی از عرصه‌هایی است كه در عصر جدید نیاز به مراقبت‌های بیشتر دارد. انتخاب درست با تحقیق بر مبنای اطلاعات صحیح صورت می‌گیرد و در غیر این صورت مردم بازیچه دست ذی‌نفعان خواهند شد. در چنین شرایطی كشورهایی كه در معرض انتخابات قرار دارند مانند ایالات متحده آمریكا در معرض آسیب دیپ فیك هستند و بنظر می‌رسد قانون‌گذاران به تكاپوی تنظیم‌گری این حوزه خواهند افتاد یا متحمل آسیب‌های جبران ناپذیر خواهند شد!

كشور چین، در خط مقدم مقابله با محتوای دیپ‌فیك

در بیشتر نقاط جهان، مسئولین هنوز اقدامی در جهت مقابله با دیپ‌فیك و انتشار اخبار جعلی توسط هوش مصنوعی مولد نكرده‌اند و این به دلیل شناخت كم آن‌ها از این فناوری نو است. مادامی كه تكنولوژی پیچیده‌تر و در دسترس تر برای عموم می‌شود، مقابله با خطرات و آسیب‌های آن نیز دشوارتر می‌شود.

چین كه یكی از بسترهای توسعه هوش مصنوعی مولد است سعی دارد تا پیش از سایر كشورها به مقابله با آسیب‌های دیپ‌فیك برخیزد. این كشور اخیراً قوانین گسترده‌ای تصویب كرده كه بر اساس آن مطالب دست‌كاری شده باید رضایت شخصیت اصلی آن محتوا را داشته باشد و امضای آن شخص پای اثر باشد و جعلی بودن آن نیز اعلام شود. در این قوانین چین مسئولیت رد شایعات را بر عهده ارائه‌دهندگان خدمات ساخت محتواهای دیپ‌فیك گذاشته است.

مشكلی كه برای مقابله با تكنولوژی جدید وجود دارد این است كه افرادی كه قصد سو استفاده دارند عموماً باهویت جعلی و یا بی‌هویت و مخفیانه دست به اقدامات نادرست می‌زنند. شناسایی آن‌ها به همین دلیل آسان نیست، بنابراین سایر كشورها هنوز موفق به تدوین قوانین تنظیم‌گرانه هوش مصنوعی مولد نشده‌اند. سخت‌گیری‌های زیاد هم ممكن است آزادی كاربران را به خطر بیندازد كه تا كنون كشوری اقدام به اعمال محدودیت‌های شدید در این حوزه نكرده است.

به گفته كارشناسان با وجود موانعی كه سر راه پكن قرار دارد، ثبات قدم كشور چین در این زمینه، به سایر كشورها كمك كرده تا اقدام به مقابله با دیپ‌فیك كنند. سابقه‌ها بر این منوال است كه قانون‌گذاران در سراسر جهان ترجیح می‌دهند قبل از تدوین چارچوب‌های جدید، روندهای قانونی سایر كشورها را تقلید یا رد كنند.

راویت دونان، محقق فوق دكترا و صاحب شركت «Colaboeative AI» می‌گوید: «این عرصه برای تعیین سیاست جهانی سرنوشت‌ساز است، زیرا كشورها در حال رقابت‌اند تا در آخر مشخص شود كه چه كسی قاعده و لحن این بازی را مشخص می‌كند.»

دیپ‌فیك و برخی فواید

با وجود همه چالش‌های ذكر شده برای این فناوری، دیپ‌فیك در بسیاری از صنایع می‌تواند نویدبخش باشد. سال گذشته، پلیس هلند یك پرونده قدیمی سال 2003 قتل را با ایجاد آواتاری دیجیتالی از قربانی 13 ساله و انتشار تصاویری از راه‌رفتن او در میان گروهی از خانواده و دوستانش را دوباره به جریان انداخت. این فناوری همچنین می‌تواند برای ساختن برنامه‌های طنز و سرگرمی، خریداران آنلاین لباس كه می‌توانند با استفاده از این فناوری لباس‌ها را در اتاق‌های تزئین مجازی امتحان كنند و انیمیشن‌سازان مفید باشد.

دسترسی سریع