به ششمین پرسش کلیدی سواد خبری میپردازیم: «آیا مدارک و شواهدی مبنی بر درستی آنچه خبر میخواهد بگوید، وجود دارد؟»
اگر خبر درست نباشد، مردم اندکاندک اعتماد خود را به خبرنگار و رسانه از دست میدهند و منبع خبری خود را عوض میکنند. البته به همان میزان که خبرنگار و رسانه در ارائهی خبرِ درست مسئولیت دارند، کاربر نیز در تشخیص اطلاعات و اخبار درست و واقعی مسئول است. برای این کار باید منابع و مدارک را بررسی کنند.
در این باره میتوان از همه یا تعدادی از پرسشهای زیر کمک گرفت:
- گسترهی جغرافیایی خبر یا گزارش چیست؟ (استانی، ملی و جهانی)
- آیا خبر تاریخ دارد؟ تاریخ آن جدید است؟
- رسانهی منتشرکنندهی خبر را میشناسید؟ از اعتبار رسانه اطمینان دارید؟
- آیا خبر آن رسانه از منبعی دیگر نقل شده است؟ منبع اولیهی خبر را میشناسید؟
- این خبر کدام عناصر خبری را دارد؟
- آیا برای هرچه باورپذیرترشدن خبر از عکس، فیلم، گرافیک اطلاعرسان، چانک و... در آن استفاده شده است؟
- کدام بخش از خبر در عکس، فیلم و گرافیک اطلاعرسان منعکس شده است؟
- آیا جستوجوی معکوس عکس به خبر، از طریق «ایزیتورو1، گوگلایمیج2 و تینآی3» ثابت میکند که عکس واقعی و مربوط به همان خبر است؟
- آیا نکاتی مانند نور، انعکاسها و غیره را برای اطمینان از جعلینبودن عکس کنترل کردهاید؟
- آیا خبر غلط املایی یا دستوری دارد؟
- آیا واژگان نژادپرستانه (کاکا سیاه، برده، چشمبادامی و...) در خبر وجود دارد؟
- آیا در خبر برای اشاره به اقوام، ادیان، مذاهب یا مسائل مربوط به آنها از واژگان نامناسب (مسلمانان افراطی و...) استفاده شده است؟
- چه مواردی در خبر جنبهی تبلیغی دارند؟
- آیا خبر موضعگیری متعصبانهای را دربارهی رنگ پوست، نژاد، مذهب، قومیت، جنسیت و... آشکار میکند؟
- آیا در خبر از دیدگاه خاص سیاسی، اقتصادی، فرهنگی و... پشتیبانی میشود؟
- آیا اعتبار خبر را با استفاده از وبگاههایی مانند فکتیار، فکتنامه یا گروه شبهه و شایعات خبرگزاری فارس سنجیدهاید؟
- دیدگاهها و نظرات چه فرد یا افرادی در خبر مطرح شدهاند؟
- دیدگاههای مطرحشده در این خبر دربارهی چه مواردی هستند؟
- آیا ممکن است دیدگاهها و نظراتی مهم از خبر حذف شده باشند؟ چه مواردی؟
عقل آدم به چشمش است
امروزه تقریباً هرکس میتواند تصویری جعلی بسازد، در اینترنت بارگذاری کند و به اشتراک بگذارد. برای بهاشتباهانداختن مردم در اینترنت، هیچچیز بهتر از عکس یا فیلم نیست؛ چراکه به قول معروف «عقل آدم به چشمش است»؛ ضربالمثلی که گروهی از جوانان آمریکایی حامی ترامپ برای اثرگذاری در انتخابات ریاست جمهوری فرانسه در سال 2017 از آن بهرهها بردند. این گروه بهطور برخط با یکدیگر ارتباط برقرار کردند تا بر انتخابات مذکور تأثیر بگذارند. آنها فایلهایی از مِیم4های اشتراکپذیر را نشر دادند تا حتی کسانی که به زبان فرانسه آشنا نبودند، بتوانند محتوای تصویری آن را در هشتگ5های روز وارد و دنبال کنند. این کار موجب شد گروههای دور از هم با استفاده از رسانههای اجتماعی و نرمافزارهای پیامرسان تلفن همراه بهراحتی با هم هماهنگ شوند. هنگامیکه ارسال چنین پیامهایی هماهنگ و مداوم باشد، بهدلیل انبوه پیامهایی که هر روز دیده میشوند، ذهن بسیار خسته میشود و بهراحتی فریب میخورد.
بسیاری از کاربران اینترنت برای جعل عکس از روشهای سادهتر استفاده میکنند. یکی از روشها این است که تصویری قدیمی را که به اتفاقی قدیمی مربوط است، به اتفاقی جدید ربط دهند. اگر با دیدن عکس مردد شدید که عکس موردنظر قدیمیتر از آن است که در زیرنویسش آمده یا نه، برای بررسی آن باید از جستوجوی معکوس تصویر در «گوگل ایمیجز» یا وبگاههای مشابه آن بهره ببرید. اگر عکس موردنظر پیشتر در موقعیتی دیگر برداشته شده باشد، این قبیل ابزارها آن را مشخص میکنند.
نرمافزارهای کاربردی مانند Truepic نیز میتوانند با استفاده از فناوری مخصوصِ خود عکسهایی را که بهشدت دستکاری شدهاند، تشخیص دهند.
باید بپذیریم، از این به بعد هرچه را که میبینیم و میشنویم، با احتیاط بیشتری باور کنیم. برای روشنترشدن موضوع به مطلبی با عنوان «آیندهی اخبار جعلی یا هرچه را که میبینید، میشنوید یا میخوانید باور نکنید!» اشاره میکنیم. در بخشی از این مطلب آمده است، در عصر فتوشاپ، فیلترها و وبگاههای شبکهی اجتماعی، دیدن عکسهای دستکاریشده عادی است، اما اکنون نسلی تازه از ابزارهای دستکاری و تغییر ویدئو و صدا راهی بازار شدهاند که با پیشرفت در هوش مصنوعی و گرافیک رایانهای اجازهی خلق ویدئوهای جعلی از هر چهرهای را فراهم میکنند. این روش دیپفیک6 به معنی جعل عمیق است. در این روش بر مبنای هوش مصنوعی، فیلم، صوت، عکس و متن نوشتاری جعل میشوند. این فناوری ابتدا مانند فتوشاپ برای استفادههای شغلی و ایجاد نوآوری در صنعت سرگرمی اختراع شد و توسعه پیدا کرد، اما در ادامه، با اینکه سازندهی آن سوءنیتی از طراحی یک نرمافزار ویرایش ویدئویی نداشت، از آن بسیار سوءاستفاده شد. در تولید ویدئوهای دیپفیک ابتدا تصویر هدف به سامانه معرفی میشود و سپس بر اساس بانک دادهای از تصویرها و صداهای موجودِ پیشین و استفاده از هوش مصنوعی، سامانه بر مبنای تصویرهای فرد تصویر هدف را میسازد و در نهایت شخصیتی جعلی دیده میشود که در حال انجام عملی است که روح فرد حقیقی از آن عمل بیخبر است.
در حوزهی تولید صداهای جعلی با روش دیپفیک نیز محققانی که روی تولید صدا پژوهش میکنند، با استفاده از سه تا پنج دقیقه از صدای یک فرد که بهطور زنده ضبط شده یا از یوتیوب یا رادیو بهدست آمده است، توانستهاند صدایی جعلی تولید کنند که نهتنها انسانها بلکه سیستمهای ایمنی زیستسنجی (بیومتریک) را فریب دهد. با این روش فناورانه میتوان با صدای مادرِ یک فرد برای خود آن فرد پیام گذاشت یا شخصی را با انتشار فایلی صوتی بدنام کرد.
محققانِ هوش مصنوعی یکی از شرکتهای بزرگ رسانهای بهتازگی توانستهاند بر اساس دادههای دریافتی از صدها ساعت سخنرانیهای انجامشده در تِد و کتابهای صوتی، در چارچوب مدلهای صوتی به جعل هویت صوتی فرد موردنظر خود اقدام کنند؛ بهطور مثال از طریق این سامانه توانستهاند عبارت «گرفتگی عضلات در شنا خطری کوچک نیست» را با صدای چهرههای مشهور جهان تولید و منتشر کنند.
در انتهای این مطلب، لطفاً درستی یا نادرستی عنوانهای خبری زیر را بیان کنید و دلایل لازم را ارائه دهید:
1. خوردن سیبهای واکسزده سرطانزاست؛
2. خوردن همزمان دارو با گریپفروت موجب بروز واکنشهای خطرناک شیمیایی در بدن تا سر حد مرگ میشود؛
3. برای عرضهی مجدد آجیلهای کهنه در بازار از وایتکس رقیقشده استفاده میشود؛
4. هفت سال طول میکشد تا آدامس در معده هضم شود؛
5. رنگ چشم میتواند در چند ثانیه از قهوهای به آبی تغییر کند.
پینوشتها
1. www.images.google.com
2. www.izitru.com
3. www.tineye.com
4. بر وزن ژِن خوانده میشود. محتوایی است که با هدف بازنمایی یک پدیده، موضوع یا معانی مشخص بهسرعت در سطحی گسترده بازنشر میشود. در عصر بهاشتراکگذاشتن محتواهای گوناگون در فضای برخط، میمها به بخشی از گفتوگوهای روزمره و فرهنگ عمومی در سطح جهان تبدیل شدهاند
5. برچسبی است که در فضای مجازی برای دستهبندی و به اشتراکگذاری پستها و نظرات دربارهی موضوعی خاص فراتر از فهرست دوستان و در سطح جهان به کار میرود
6. Deepfake