اندیشمندان حوزه «هوش مصنوعی»۱ در عین حال که برای نابودی یک سلاح بسیار خطرناک سیاسی، یعنی فیلمهای جعلی تولید شده توسط رایانه که بیشترین تأثیر را در تضعیف جایگاه نامزدهای انتخاباتی و گمراهسازی رأیدهندگان در انتخابات ریاست جمهوری ۲۰۲۰ ایالات متحده دارد، با یکدیگر در رقابتاند، همصدا با هم پیامی مشترک را صلا میدهند: «جهان برای مواجهه با دیپ فیک۲ آماده نیست.»
این پژوهشگران با مدنظر قرار دادن ملاکهای کشف فیلمهای جعلی، سامانههایی خودکار طراحی کردهاند تا فیلمها را تجزیه و تحلیل کنند. برخی از این ملاکها عبارتاند از: ارزیابی نور، سایهها، الگوهای پلک زدن، چگونگی حرکات سر، ابعاد واقعی چهره، مانند نسبت زاویههای سر و اجزای صورت نسبت به یکدیگر، یا نحوه تکان دادن سر و لبخند زدن. بهرغم تمام این پیشرفتها، محققان بر این باورند که گستردگی و تأثیرات عمیق این روش جاعلانِ بر افکار عمومی، بسی شدید و ماندگارتر از آن است که تصور میشد. لذا بر همین اساس نسبت به آغاز موج جدید پویشهای اطلاعات نادرست۳ در انتخابات ۲۰۲۰ زنهار دادهاند؛ روندی نامیمون که تأثیر «اخبار جعلی»۴ را بر افکار عمومی و نقش گروههای فریبکار فعال در «فیسبوک» را در تغییر نتیجه انتخابات ریاست جمهوری ۲۰۱۶ یادآور میشود.
الیس ساموئلز۵، روزنامهنگار و سردبیر بخش راستیآزمایی فیلمهای آنلاین در روزنامه واشنگتنپست، در اینباره میگوید: دیپ فیک این ایده را که باورپذیری منوط به دیدن است، نقض میکند و این مهم در آینده مبارزات سیاسی و نتایج حاصل از آن بسیار تعیینکننده است.
هانی فرید۶، کارشناس حوزه قوانین دیجیتال در «دانشگاه برکلی» کالیفرنیا، با توجه به آمارهایی چون نسبت کمّی تولیدکنندگان به تحلیلکنندگان دیپ فیک که به تعبیر وی صد به یک است، پیرامون امکان غلبه بر این فناوری اظهار تردید میکند. این استاد علوم رایانه در دانشکده «دارتموث» که قریب به دو دهه در حوزه تشخیص فیلمهای دستکاری شده فعالیت دارد، میگوید که با ریزبینی در مواردی چون پیکسلهای تصویر و سعی در یافتن ایرادهای جزئی آن، یا موشکافی در روند گردش خون در صورت شخصیتها، گاه میتوان به واقعی یا جعلی بودن فیلم واقف شد. بهرغم این موارد فرید معتقد است هوش مصنوعی در کمترین زمان متصور، مرز این علائم و نشانهها را نیز درمینوردد و روند شناسایی دیپ فیکها، همچون رابطه موش و گربه در کارتون «تام و جری»، بین الگوریتمهای هوش مصنوعی و خبرگان تشخیص فیلمهای جعلی، به تسلسلی نافرجام دچار میشود.۷
گرچه در ایالاتمتحده، دیپ فیکها تبعات گسترده سیاسی در پی داشتهاند، اما رسواییهای سیاسی فیلم محور لزوماً به دیپ فیک محدود نیست، بلکه گاه دستکاریهای ساده در فیلم نیز در سپهر سیاسی غائله برپا میکند که شاهد مثال آن، ویدیوی پربیننده نانسی پلوسی۸، رئیس مجلس نمایندگان آمریکا و رهبر حزب دموکرات این مجلس در می ۲۰۱۹ است. بیش از سه میلیون بازدیدکننده در این فیلم پلوسی را در حالی دیدند که دچار مشکل تکلم و عدم تعادل است. فیلم مذکور این گمان را در بینندگان ایجاد کرد که این عضو ارشد حزب دموکرات دارای مشکلات ذهنی است و از سلامت جسمی برخوردار نیست. علاوه بر این، برخی مخالفان وی، بهویژه جمهوریخواهان، در آن هنگام مدعی شدند، مشکل تکلم پلوسی ناشی از اعتیاد وی به مسکرات است که پس از چندی مشخص شد این ویدیو با سرعتی ۲۵ درصد کمتر از حالت عادی بازتدوین و در نتیجه دستکاری شده بود.۹
دیپ فیک که نخستین بار طی سال ۲۰۱۷ در یک پستِ «تارنمای رِدیت»۱۰ از آن نام برده شد و در تولیدش از فنِ هوش مصنوعی «دیپ لرنینگ»۱۱ استفاده میشود، در ایالات متحده به یک اهرم فشار علیه سیاسیون، از جمله ساکنان منطقه «کپیتال هیل»۱۲ بدل شده است، تا جایی که قانونگذاران رجای واثق یافتند که دیپ فیک ضمن زیر سؤال بردن اعتبارشان، مخل سلامت انتخابات و در ابعادی وسیعتر چالشی جدی برای امنیت ملی و حاکمیت مردمسالارانه محسوب میشود. با عنایت به این مهم، «کمیته اطلاعات مجلس نمایندگان» طی ژوئن ۲۰۱۹ برای استماع نظر متخصصان هوش مصنوعی جلسهای تشکیل دادند و پیرامون اینکه دیپ فیک با سلب مشروعیت از رِسانه، چگونه موجب انکار رسانه از سوی مخاطب میشود و امکان تشخیص صحیح را از وی میگیرد، و با این شرایط، مخاطب چگونه میتواند از تأثیر روانشناختیِ ماندگارِ دیپ فیک و هوش مصنوعی بر هوش و شخصیت خود رهایی یابد، اظهاراتی مطرح شد.
آدام شیف۱۳، نماینده دموکرات حوزه انتخابیه کالیفرنیا و رئیس کمیته اطلاعات مجلس نمایندگان، پیرامون میزان آمادگی نظام سیاسی ایالاتمتحده در برابر دیپ فیک اظهار تردید کرده و افزوده است که گمان نمیکند مردم از آنچه انتظارشان را میکشد آگاه باشند.
راشل توماس۱۴، بنیانگذار یک آزمایشگاه یادگیری ماشین۱۵ در سانفرانسیسکو، میگوید: یک پویش اطلاعات نادرست با استفاده از فیلمهای دیپ فیک بر بستر پلتفرم وب مدرن، با توجه به ساختار این پلتفرم، انبوهی از مخاطبان را جذب میکند و بیشتر و سریعتر از حقیقت اشاعه مییابد. توماس معتقد است محتوای جعلی بهطور تضمینشده بر افکار عمومی مؤثر نیست، چراکه انسانها در مقام موجوداتی اجتماعی اموری را باور میکنند که کثیری از همنوعانشان به آن مؤمن باشند. لذا آنانی که در پی تأثیرگذاری بر افکار عمومی از طریق تولید و نشر مجعولات هستند، کاری ساده در پیش ندارند.
در این بین، نبود قوانین مصرحِ ناظر بر دیپ فیک موضوعی قابل تأمل است. البته برخی کارشناسان حقوقی و فنی معتقدند قوانین مصوب که بر اعمالی مجرمانه چون افترا، سرقت هویت یا جعل عنوانهای دولتی جاریاند، بر این مهم نیز دلالت میکنند. با این حال به نظر میرسد گسترده شدن وضع قوانین نیز نگرانیهایی در پی دارد، چرا که دیپ فیک بر مرز باریک میان محتوای طنزی که متمم اول قانون اساسی ایالات متحده از آن حمایت میکند و تبلیغات سیاسی مخرب در حرکت است؛ مرزی که ممکن است وجوه تمایز آن همواره واضح نباشد.
برخی نگراناند امکان تخدیر یا هیجانات ناشی از تماشای فیلمهای جعلی، موجب شود مردم به استنادات و شواهد جعلی تبهکاران ایمان بیاورند. محققان این مشکل را بیتفاوتی نسبت به امر واقع نامیدهاند۱۶؛ بدین معنی که فرد برای فهم آنچه واقعیت دارد و آنچه واقعیت ندارد، بسیار تلاش میکند، لیکن در نهایت آنچه را که با وابستگیهای پیشینش پیوند دارد، میپذیرد. نتایج «مرکز تحقیقات پیو»۱۷ که در ژوئن ۲۰۱۹ منتشر شد، مؤید این امر است، چرا که در آن تحقیق حدود دوسوم از پرسش شوندگان آمریکایی اظهار کردند، فیلمها و تصویرهای جرح و تعدیل شده به مشکلی اساسی در تشخیص امر واقع در زندگی روزمرهشان تبدیلشده است. بیش از یکسوم از پرسش شوندگان نیز معتقد بودند، اخبار ساختگی موجبات بیاعتمادی و کاهش کلی میزان دریافت اخبار توسط آنان را رقم زده است.
این نگرانی که دیپ فیکها مردم را در پذیرش فیلمهای واقعی دچار تردید و انکار کند، پدیدهای است که رابرت چسنی۱۸ و دنیل سترون۱۹ استادان حقوق، آن را سود حاصل از دروغ نام نهادهاند؛ به این معنی که قبحزدایی از جعلیات و دستکاری محتوا سبب شود، حتی پس از افشای دروغ، اعتماد به هرگونه اطلاعات پیرامون آن موضوع خاص برای افکار عمومی دشوار شود.۲۰
فناوری دیپ فیک به سرعت در حال پیشرفت است، کما اینکه طی می ۲۰۱۹ پژوهشگران هوش مصنوعی در مؤسسه علم و فناوری «اسکولکوو»۲۱ در مسکو از سامانه «عکس معدود»۲۲ رونمایی کردند که میتواند با تعدادی محدود تصویر چهره، تصویرهای متعددِ متقاعدکننده جعلی از آن چهره تولید و سپس آن تصویرها را به فیلم تبدیل کند. ایگور زاخاروف، پژوهشگر ارشد این گروه تحقیقاتی، با عنایت به بازنگری مداوم همکارانش در فناوری مورد بحث، از هرگونه اظهارنظر شخصی پیرامون این موضوع استنکاف میورزد، اما در فرازی از مقاله منتشره از سوی گروه تحقیقاتی مذکور آمده که دستاورد حاصل از اثر شبکهایِ تولید فناوریهای جلوههای ویژه ویدیویی، فراتر از حد انتظار بوده و همچنین تأکید شده که این فناوری نوین با فناوری «آواتار عصبی» همخوان است.
ویدیوهای دیپ فیک نمونهای از انقلابی است که هوش مصنوعی در عرصه اطلاعات نادرست ایجاد کرده؛ کما اینکه سامانههای جدید هوش مصنوعی زبانی، مانند «نسخه دومِ مبدلِ پیش آموزش دادهشده مولد»۲۳ که توسط آزمایشگاه تحقیقاتی اُپن آی۲۴ طراحیشده، متون نوشتاری تولید میکنند. این الگوریتم مدلسازی زبان از ویژگی مولد بودن برخوردار است؛ در حالیکه این ویژگی منحصر به زبان انسان است. مولد بودن زبان به معنای توانایی تولید صورتهای جدید زبانی براساس قواعد موجود در زبان است که یکی از ویژگیهای مهم آن به شمار میرود.۲۵
در تولید ویدیوهای دیپ فیک به یاد داریم که تصویرهای هدف به سامانه معرفی میشدند و سامانه براساس بانک دادهای از تصویرها و صداهای موجودِ پیشین و کمک روشهایی نظیر «شبکه مولد متخاصم»۲۶ که شاخهای مهم از یادگیری ژرف است، تصویرهای هدف را بر مبنای تصاویر موجود میساخت و در نهایت شخصیتی دیده میشد که در حال انجام کار یا ایراد سخن است؛ در حالیکه روح شخص واقعی از آن بیخبر است. (فلسفی، ۱۳۹۸: ۸۲ و ۸۳). در تولید نوشتار نیز، با استفاده از آن دسته متون نوشتاری که در قالب دادههای خام اولیه به سامانه وارد میشود، بندهایی در ادامه متن ورودی با همان لحن، مضمون و سبک نگارش تولید میشود. اگر به سامانه تیتر جعلی بدهید، بقیه مطلب را با نقلقولها و نمودارهای جعلی تولید میکند یا میتواند با در اختیار داشتن خط اول یک داستان کوتاه، شخصیتپردازی کند و به سرعت داستان کوتاه پرطرفداری بنویسد.۲۷ بهرغم اینکه ممکن است متن به سمت مغلقگویی گرایش یابد، لیک این امکان مستمسکی ارزشمند برای رباتهای هرزه نگار و سازندگان اخبار جعلی محسوب میشود.
نسخه دومِ مبدلِ پیش آموزش دادهشده مولد، یک مدلساز زبان طبیعی با ۱/۵ میلیارد مؤلفه در مجموعهای مرکب از هشت میلیون صفحه وب است و هدف از طراحی آن، پیشبینی درونمتنی واژه پسین براساس واژگان پیشین است. سامانه مذکور نسخهای ارتقا یافته است که نسبت به نمونه پیشین۲۸ در حوزه مؤلفه و مقدار داده، ۱۰ برابر ارتقا یافته و به شکلی طراحی شده که به سهولت میتواند واژه پسین درونمتنی را در چارچوب بانک داده متنی اینترنتی که معادل ۴۰ گیگابایت برآورد میشود، گمانهزنی و تولید کند.۲۹
لازم به ذکر است که این روش روی متن سخنرانی رهبران سیاسی جهان در مجمع عمومی سازمان ملل متحد بین سالهای ۱۹۷۰ تا ۲۰۱۵ آزمایششده است.۳۰ در مقابل و برای مواجهه با این فناوری، پژوهشگران دانشگاه واشنگتن و مؤسسه هوش مصنوعی آلن۳۱ یک سامانه کاشفِ متن جعلی به نام «گرور»۳۲ را در می ۲۰۱۹ معرفی کردند که ظرفیت آشکارسازی اخبار جعلی عصبی تولیدشده به وسیله ماشین را دارد.
مضاف بر پژوهش در حوزه دیپ فیکهای ویدیویی و نوشتاری جعلی، موضوع تشخیص صداهای جعلی متقاعدکننده نیز در افق فکری کارشناسان این حوزه قرار دارد. پژوهشگران دانشگاه آلاباما در بیرمنگام که در حوزه صدا پژوهش میکنند، با استفاده از سه تا پنج دقیقه صدای فرد هدف که زنده ضبط شده یا از یوتیوب یا رادیو به دست آمده است، توانستهاند صدایی جعلی تولید کنند که انسان و سامانههای ایمنی بیومتریک در تشخیص جعلی بودن آن ناتواناند. نیتش ساکسنا۳۳، استاد و پژوهشگر این دانشگاه، پیرامون میزان تأثیر اقناعگرایانه این صداهای جعلی اظهار میدارد که با این فناوری میتوان با صدای مادر برای فرزندش با کیفیتی پیام گذاشت که فرزند نتواند جعلی بودن صدا را تشخیص دهد یا شخصی را با انتشار یک فایل صوتی جعلشده از صدای خودش بدنام کرد [سلطانیفر، سلیمی و فلسفی، ۱۳۹۶: ۵۹].
محققان هوش مصنوعی شرکت رسانهای «فیسبوک»، در ادامه مساعی پژوهشگران دانشگاه آلاباما، توانستهاند با شبیهسازی صدای افراد، گفتاری ماشینی تولید کنند که به شدت فریبنده است. برای انجام این مهم، سامانه «مِل نت»۳۴ براساس دادههای ورودی شامل صدها ساعت سخنرانی در همایش «تِد» و کتابهای صوتی، در چارچوب مدلهای صوتی طراحی شده به جعل هویت افراد اقدام میکند. برای مثال، این سامانه میتواند عبارت «گرفتگی عضلات هنگام شنا خطری بزرگ است» را با صدای بیل گیتس، جین گودال۳۵ و بسیاری دیگر بسازد. مدل طراحی شده، امکان تولید صداهای جعلی رایانه مبنا را در قالب سخنرانی، موسیقی و سنتز متن به گفتار داراست که فراتر از تصورها، برآوردها و قضاوتهای انجامگرفته در این زمینه است.۳۶ از مصداقهای دیپ فیکهای صوتی میتوان به حادثهای در اوت ۲۰۱۹ اشاره کرد که طی آن تبهکاران دیجیتالی به کمک دیپ فیک و جعل صدای مدیرعامل یک شرکت بریتانیایی، موفق شدند مبلغ ۲۴۳ هزار دلار از شرکت مذکور سرقت کنند!۳۷
بخش عمده سرمایهگذاری به منظور پژوهش پیرامون یافتن راههای شناسایی دیپ فیکها، توسط «دفتر نمایندگی پروژههای پژوهشی پیشرفته دفاعی»، موسوم به «دارپا»۳۸ که وابسته به وزارت دفاع آمریکاست، تأمین میشود. دارپا از سال ۲۰۱۶ حامی مالی برنامه طراحی زیرساختِ تشخیص، تجزیه و تحلیل، تفسیر، ارائه شواهد و بازیابی خودکار فیلمها و تصویرهای دیجیتال «دستکاری شده»۳۹ است که توسط جمعی از پژوهشگران طراز اول و گروههای تحقیقاتی بسیار معتبر این حوزه در حال انجام است. مت توریک۴۰، متخصص «بینایی ماشین»۴۱ که هدایت این برنامه را بر عهده دارد، میگوید: امکانی که برای شناسایی رسانههای جعلی و اخبار تولیدی آنها با نام «رسانههای ترکیبی»۴۲ طراحیشده، یک فناوری تدافعی است که نهتنها علیه دشمنان خارجی، بلکه دشمنان سیاسی داخلی و اوباش اینترنتی قابل بهکارگیری است.
توریک اظهار میدارد: از زمان اولین رسانهها تاکنون، حکومتها و دولتها امکان اعمال نفوذ و دستکاری در محتوای رسانه را داشتهاند، اما طراحی سامانههای قوی کشف جعلیات، مانند رسانههای ترکیبی، سبب میشود گروههای تبهکارِ دارای منابع و امکانات محدود که در حوزه تولید و نشر اخبار جعلی فعالاند، با انجام محاسبه هزینه ـ فایده، از ارتکاب این عمل مجرمانه خودداری کنند.
پژوهشگران بر این اعتقادند که فیلمهای جعلی دارای کیفیت تصویری بالا، با سهولتی بیشتر قابلشناساییاند؛ چراکه امکان مشاهده هرچه بیشتر جزئیات، ضریب تفکیک جعلی از واقعی بودن را به میزانی فراوان افزایش میدهد. اما قرار گرفتن چنین فیلمهایی بر «پلتفرم وب مدرن» این امکان تشخیص را سلب میکند. زیرا بیشتر قریب به اتفاق رسانههای اجتماعی و تارنماهای پیامرسان، به منظور سهولت و سرعت هرچه بیشتر به اشتراک گذاشته شدن فیلمهای خود، آنها را در قالبهایی فشرده بر این بستر بارگذاری میکنند که این امر موجبات حذف جزئیات فیلمها را که سرنخهایی مهم برای کشف دیپ فیک محسوب میشوند، فراهم میکند.
موارد مذکور سبب شدهاند، برخی افراد تشخیص فیلمهای جعلی را ناممکن بپندارند. لذا محققان بر آن شدند تا با تمرکز بر سامانه اصالت سنجی، بکوشند صحنهها درست همانطور که فیلمبرداری میشوند، به نمایش درآیند که از این روند در اصطلاح با عنوان «اثر انگشت» یاد میشود.۴۳ این امر میتواند به سهولت کشف جعلیات کمک کند، لیکن تحققش در گرو حصول توافق سازندگان گوشیهای همراه هوشمند، دوربینها و طراحان تارنماهاست؛ پیشنهادی با دورنمایی که تحققش سالها به طول میانجامد.
اما شرکتهای مذکور پیرامون حذف، نشانهگذاری، تنزل رتبه و حفظ جعلیات از مشی یکسان پیروی نمیکنند. برای مثال، «یوتیوب» فیلم تحریف شده پلوسی را که شرح آن به اختصار رفت، به سرعت از تارنمای خود حذف و اعلام کرد که فیلم مذکور سیاست این سایت شبکه اجتماعی را با عملی گمراهکننده نقض کرده است. اما «فیسبوک»، ضمن خودداری از حذف ویدیوی مذکور، به نشریه «پست» گفت که پلتفرم مذکور فاقد سیاستی است که کاربران را ملزم به بارگذاری اطلاعات درست در این سایت شبکه اجتماعی کند. نیک کلگ۴۴، سخنگوی ارشد فیسبوک، تصریح کرد: گفتار و مباحث سیاسی سیاستمداران از بررسی واقعیت معاف میشوند. حتی اگر مطالبشان قوانین این سایت شبکه اجتماعی را نقض کنند، آن محتوا همچنان روی این پلتفرم باقی میماند؛ چراکه به گفته وی، سانسور با آنچه فیسبوک به آن اعتقاد دارد، مغایر است.۴۵
یوتیوب اعلام کرد پیگیری و سرمایهگذاری در حوزه رسانههای ترکیبی را در دستور کار خود قرار داده است و این را با مساعی پیشین خود، مانند مبارزه با هرزه نگاری و یافتن فیلمهایی که قوانین حق تکثیر را نقض کردهاند ـ و به کمک توأمان نرمافزار و نظارت انسانی انجام میشود ـ قیاس کرده است.
فیسبوک نیز در توضیح اقدامش در تأمین منابع مالی پژوهش پیرامون دستکاری رسانهای که در برخی دانشگاهها انجام میشود، به نشریه پست گفت که مبارزه با «اطلاعات نادرست»۴۶ از مهمترین کارهایی است که این شرکت انجام میدهد. البته فیسبوک پس از اینکه در می ۲۰۱۹ از حذف ویدیوی تحریفشده پلوسی از پلتفرم خود امتناع کرد، یک ماه بعد، یعنی در ژوئن همان سال، با ویدیوی دیپ فیک مارک زاکربرگ روبهرو شد که در سایت شبکه اجتماعی تحت مالکیتش، «اینستاگرام» منتشر شد. فیلمی جعلی براساس سخنرانی سال ۲۰۱۷ زاکربرگ که او را در حالی رو به دوربین نشان میدهد که اظهار میکند: کنترل کامل اطلاعات به سرقت رفته میلیاردها انسان، زندگی، اسرار و آینده آنها را تهدید میکند.
در ادامه این مساعی، برای مبارزه با اطلاعات نادرست، شرکت رسانهای مذکور در اکتبر ۲۰۱۹ برنامههای خود را برای انتخابات ۲۰۲۰ ایالات متحده اعلام کرد که جلوگیری از گسترش اطلاعات نادرست و سرمایهگذاری در پروژههای مربوط به سواد رسانهای بخشی از آن محسوب میشوند. فیسبوک در توضیح این برنامه بیان کرد که تلاش همزمان خود را در جهت کاستن از اطلاعات نادرست در سایت شبکههای اجتماعی فیسبوک و اینستاگرام بهکار میبندد و برای مثال، از گسترش اطلاعات مذکور در دو شبکه مزبور به منظور ممانعت از پربیننده شدن آنها اقدام میکند. طی این برنامه، اطلاعات نادرست را در اینستاگرام از جستوجو و هشتگها حذف میکند و انتشار آنها را در خبرخوان فیسبوک کاهش میدهد. به علاوه اگر صفحهها، دامنهها و گروهها به تکرار اطلاعات نادرست دست بزنند، ضمن ممانعت از اشاعه کلی محتوایشان در فیسبوک، در تبلیغات و کسب درآمدشان محدودیت ایجاد میکند. این شرکت رسانهای مدعی شد، طی نوامبر ۲۰۱۹ یک گروه مستقل راستیآزما، نسبت به علامتگذاری تمامی مطالب بارگذاری شده در فیسبوک و اینستاگرام اقدام میکند تا کاربران نسبت به اینکه کدامین مطلب را بخوانند، به اشتراک بگذارند و در مجموع بدان اعتماد کنند و تصمیماتی بهتر بگیرند.۴۷
«توییتر» اعلام کرد، هر هفته با موضوع بیش از هشت میلیون حساب کاربری که در تلاشاند، ضمن دستکاری محتوا به انتشار آن بپردازند، درگیر است، با این حال راستیآزمایی هر توییت را نیز امکانپذیر نمیداند. این شرکت میافزاید: بر این باور نیست که بخواهد پیش از انتشار توییت در فضای آنلاین پیرامون چیستی و صحت محتوای آن تصمیم بگیرد و مداخله کند. آشکار شدن توییت دروغ در کسری از ثانیه اتفاق میافتد، چراکه دیگر کاربران، بلادرنگ به بررسی توییتها مبادرت میکنند. توییتر مدعی است محتواهای نادرست تا هنگامیکه کذب بودنشان اثبات شود، به میزانی ناچیز در توییتر بازنشر میشوند. لازم به ذکر است که این شرکت هیچگونه آمار و ارقامی برای اثبات ادعاهایش ارائه نکرده است.
با توجه به در پیش بودن انتخابات ۲۰۲۰ ایالات متحده، ضرورتِ وجود سامانههای تشخیص دیپ فیک بیشتر احساس میشود، اما شرکتهای بزرگ آمریکایی همچنان به صیانت از انتخابات در چارچوب تخلفات سایبری تمایلی فزاینده دارند. شامیر علیبحی۴۸ که مؤسس «استارت آپ آمبر»۴۹ در حوزه تشخیص جعلیات است، میگوید که شرکتش با همکاری بخشی از مشتریانش در حال آزمایش یک پوشش محافظ در برابر دیپ فیک با استفاده از فناوری «بلاکچین» برای احراز هویت، و روشی جدید در تفکیک قطعات فیلم، و همچنین پردازش سیگنال، همراه با تحلیل کلیدواژههای محتوای صوتی و تصویری است.
توجه: این نوشتار ترجمهای آزاد از بخشی از مقالهای است به نام: Top AI researchers race to detect ‘deepfake’ videos: We are outgunned که توسط درو هارول (Drew Harwell) در ژوئن ۲۰۱۹ به رشته تحریر درآمده است.
پینوشتها
1. Artificial Intelligence: به سامانههایی گفته میشود که واکنشهایی مشابه رفتارهای هوشمند انسانی، از جمله درک شرایط پیچیده، شبیهسازی فرایندهای تفکری و شیوههای استدلالی انسانی و پاسخ موفق به آنها، یادگیری و توانایی کسب دانش و استدلال برای حل مسائل دارند.
2. Deep fake: که با معادلهایی چون جعل عمیق، جعل عمقی، جعل ژرف و یادگیری عمیق جعل کردن از آن یاد میشود.
3. Disinformation: به «کژ آگاهسازی عامدانه» و نشر هدفمند و گسترده اطلاعات نادرست گفته میشود که بهطور معمول خاستگاهی حاکمیتی دارد. در چارچوب «اطلاعات نادرست» که غالباً همسنگ اخبار جعلی فرض میشود، مخاطب بر بستر اطلاعاتی نادرست زندگی میکند و طی فرایندی طولانی فریفته میشود. آنگاه پیرامون امری به باوری کذب میرسد (فلسفی، 1398: 82)
4. Fake News عبارت است از تولید و نشر عامدانه اطلاعات نادرست و / یا شایعه به منظور جهت دادن به افکار عمومی برای کسب منافعی خاص.
5. Elyse Samuels
6. Hany Farid
7. www.latimes.com/business/technology/la-fi-tn-fake-videos-20180219-story.html
8. Nancy Pelosi
9. http://yon.ir/dwcCO
10. www.reddit.com
11. Deep learning: زیرشاخهای از یادگیری ماشین که از مجموعهای از الگوریتمها برای پردازش سیگنالهای حسی، مانند صدا و تصویر استفاده میکند.
12. Capitol Hill: مقر حکومتی ایالات متحده در شهر واشنگتن دی سی که ساختمانهای سنا، مجلس نمایندگان و دیوان عدالت عالی در آن واقع است.
13. Adam Schiff
14. Rachel Thomas
15. www.fast.ai
16. http://aviv.me
17. Pew Research Center
18. Robert M. Chesney
19. Danielle Citron
20. www.poynter.org/ethics-trust/2019/the-liars-dividend-is-dangerous-for-journalists-heres-how-to-fight-it
21. Skolkovo
22. Few Shot
23. Generative Pretrained Transformer-2 (GPT-2)
24. https://openai.com
25. www.zoomit.ir/2019/5/28/336405/gpt2-language-model
26. Generative Adversarial Network (GAN)
27. www.theverge.com/2019/2/14/ 18224704/ai-machine-learning-language-models-read-write-openai-gpt2
28. GPT
29. https://openai.com/blog/better-language- models
30. https://arxiv.org/pdf/1906.01946.pdf
31. https://allenai.org
32. Grover
33. Nitesh Saxena
34. MelNet
35. Jane Morris Goodall
36. https://arxiv.org/pdf/1906.01083.pdf
37. www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402
38. Defense Advanced Research Projects Agency (DARPA)
39. MediFor
40. Matt Turek
41. Computer Vision: یا بینایی رایانه، شامل روشهای مربوط به پردازش، تجزیه و تحلیل و درک محتوای تصویرها یا فیلمهای دیجیتال است.
42. Synthetic Media: رسانههایی دیجیتال یا در نگاهی کلانتر، رسانههایی تغییریافتهاند که غالباً توسط الگوریتمها هدایت میشوند. برخی صاحبنظران دیپ فیکها را ذیل رسانههای ترکیبی تعریف میکنند.
43. https://hackernoon.com/detecting-fake-video-needs-to-start-with-video-authentication-224a988996ce
44. Nick Clegg
45. http://yon.ir/KguFO
46. Misinformation: اطلاعاتی نادرست بدون تعمد در گمراهسازی مخاطب است که رشد آن به واسطه توسعه بنیانهای فناورانه در حوزه تبادل اطلاعات، بهویژه در فضای آنلاین، فزونی یافته است. تولید و نشر این اطلاعات بهطورمعمول از سوی خبرنگاران و سازمانهای خبری که صادقانه به حرفه خود پایبندند، اما به دلایلی چون خطای انسانی یا سوء عملکرد سازمانی ناخواسته به ورطه تولید و نشر اطلاعات ناراست فرو میغلتند، انجام میپذیرد. البته فارغ از خبرنگاران و سازمانهای خبری، برخی مخاطبان نیز این اطلاعات را به اشتراک میگذارند که به زعم خود اطلاعاتی موثق را با دیگران سهیم میشوند [فلسفی، 1398: 81].
47.https://newsroom.fb.com/news/2019/10/update-on-election-integrity-efforts
48. Shamir Allibhai
49. https://ambervideo.co
منابع
۱. سلطانیفر، محمد؛ سلیمی، مریم؛ و فلسفی، سیدغلامرضا (۱۳۹۶). اخبار جعلی و مهارتهای مقابله با آن. فصلنامه رسانه. دوره ۲۸. شماره سه. شماره پیاپی ۱۰۸.
http://qjmn.farhang.gov.ir/article_51733.html
۲. فلسفی، سیدغلامرضا (۱۳۹۸). «جهان در خطر بازگشت به عصر تاریکی». مجله بازخورد. سال دوم، شما ره هشتم.
magiran.com/p1998506