شنبه ۳ آذر ۱۴۰۳

مقالات

راست و ناراست

راست و ناراست

به ششمین پرسش کلیدی سواد خبری می‌پردازیم: «آیا مدارک و شواهدی مبنی بر درستی آنچه خبر می‌خواهد بگوید، وجود دارد؟»

اگر خبر درست نباشد، مردم اندک‌اندک اعتماد خود را به خبرنگار و رسانه از دست می‌دهند و منبع خبری خود را عوض می‌کنند. البته به همان میزان که خبرنگار و رسانه در ارائه‌ی خبرِ درست مسئولیت دارند، کاربر نیز در تشخیص اطلاعات و اخبار درست و واقعی مسئول است.  برای این کار باید منابع و مدارک را بررسی کنند.

در این باره می‌توان از همه یا تعدادی از پرسش‌های زیر کمک گرفت:

- گستره‌ی جغرافیایی خبر یا گزارش چیست؟ (استانی، ملی و جهانی)

- آیا خبر تاریخ دارد؟ تاریخ آن جدید است؟

- رسانه‌ی منتشرکننده‌ی خبر را می‌شناسید؟ از اعتبار رسانه اطمینان دارید؟

- آیا خبر آن رسانه از منبعی دیگر نقل ‌شده است؟ منبع اولیه‌ی خبر را می‌شناسید؟

- این خبر کدام عناصر خبری را دارد؟

- آیا برای هرچه باورپذیرترشدن خبر از عکس، فیلم، گرافیک اطلاع‌رسان، چانک و... در آن استفاده ‌شده است؟

- کدام بخش از خبر در عکس، فیلم و گرافیک اطلاع‌رسان  منعکس‌ شده است؟

- آیا جست‌وجوی معکوس عکس به خبر، از طریق «ایزی‌تورو1، گوگل‌ایمیج2 و تین‌آی3» ثابت می‌کند که عکس واقعی و مربوط به همان خبر است؟

- آیا نکاتی مانند نور، انعکاس‌ها و غیره را برای اطمینان از جعلی‌نبودن عکس کنترل کرده‌اید؟

- آیا خبر غلط املایی یا دستوری دارد؟

- آیا واژگان نژادپرستانه (کاکا سیاه، برده، چشم‌بادامی و...) در خبر وجود دارد؟

- آیا در خبر برای اشاره به اقوام، ادیان، مذاهب یا مسائل مربوط به آن‌ها از واژگان نامناسب (مسلمانان افراطی و...) استفاده ‌شده است؟

- چه مواردی در خبر جنبه‌ی تبلیغی دارند؟

- آیا خبر موضع‌گیری متعصبانه‌ای را درباره‌ی رنگ پوست، نژاد، مذهب، قومیت، جنسیت و... آشکار می‌کند؟

- آیا در خبر از دیدگاه خاص سیاسی، اقتصادی، فرهنگی و... پشتیبانی می‌شود؟

- آیا اعتبار خبر را با استفاده از وبگاه‌هایی مانند فکت‌یار، فکت‌نامه یا گروه شبهه و شایعات خبرگزاری فارس سنجیده‌اید؟

- دیدگاه‌ها و نظرات چه فرد یا افرادی در خبر مطرح ‌شده‌اند؟

- دیدگاه‌های مطرح‌شده در این خبر درباره‌ی چه مواردی هستند؟

- آیا ممکن است دیدگاه‌ها و نظراتی مهم از خبر حذف ‌شده‌ باشند؟ چه مواردی؟

 

عقل آدم به چشمش است

امروزه تقریباً هرکس می‌تواند تصویری جعلی بسازد، در اینترنت بارگذاری کند و به اشتراک بگذارد. برای به‌اشتباه‌انداختن مردم در اینترنت، هیچ‌چیز بهتر از عکس یا فیلم نیست؛ چراکه به قول معروف «عقل آدم به چشمش است»؛ ضرب‌المثلی که گروهی از جوانان آمریکایی حامی ترامپ برای اثرگذاری در انتخابات ریاست جمهوری فرانسه در سال 2017 از آن بهره‌ها بردند. این گروه به‌طور برخط با یکدیگر ارتباط برقرار کردند تا بر انتخابات مذکور تأثیر بگذارند. آن‌ها فایل‌هایی از مِیم4‌های اشتراک‌پذیر را نشر دادند تا حتی کسانی که به زبان فرانسه آشنا نبودند، بتوانند محتوای تصویری آن را در هشتگ‌5های روز وارد و دنبال کنند. این کار موجب شد گروه‌های دور از هم با استفاده از رسانه‌های اجتماعی و نرم‌افزارهای پیام‌رسان‌ تلفن همراه به‌راحتی با هم هماهنگ ‌شوند. هنگامی‌که ارسال چنین پیام‌هایی هماهنگ و مداوم باشد، به‌دلیل انبوه پیام‌هایی که هر روز دیده می‌شوند، ذهن بسیار خسته می‌شود و به‌راحتی فریب می‌خورد.

بسیاری از کاربران اینترنت برای جعل عکس از روش‌های ساده‌تر استفاده می‌کنند. یکی از روش‌ها این است که تصویری قدیمی را که به اتفاقی قدیمی مربوط است، به اتفاقی جدید ربط ‌دهند. اگر با دیدن عکس مردد شدید که عکس موردنظر قدیمی‌تر از آن است که در زیرنویسش آمده یا نه، برای بررسی آن باید از جست‌وجوی معکوس تصویر در «گوگل ایمیجز» یا وبگاه‌های مشابه آن‌ بهره ببرید. اگر عکس موردنظر پیش‌تر در موقعیتی دیگر برداشته ‌شده باشد، این قبیل ابزارها آن را مشخص می‌کنند.

نرم‌افزارهای کاربردی مانند Truepic نیز می‌توانند با استفاده از فناوری مخصوصِ خود عکس‌هایی را که به‌شدت دستکاری ‌شده‌اند، تشخیص ‌دهند.

باید بپذیریم، از این به بعد هرچه را که می‌بینیم و می‌شنویم، با احتیاط بیشتری باور کنیم. برای روشن‌ترشدن موضوع به مطلبی با عنوان «آینده‌ی اخبار جعلی یا هرچه را که می‌بینید، می‌شنوید یا می‌خوانید باور نکنید!» اشاره می‌کنیم. در بخشی از این مطلب آمده است، در عصر فتوشاپ، فیلترها و وبگاه‌های شبکه‌ی اجتماعی، دیدن عکس‌های دستکاری‌شده عادی است، اما اکنون نسلی تازه از ابزارهای دستکاری و تغییر ویدئو و صدا راهی بازار شده‌اند که با پیشرفت در هوش مصنوعی و گرافیک رایانه‌ای اجازه‌ی خلق ویدئوهای جعلی از هر چهره‌ای را فراهم می‌کنند. این روش دیپ‌فیک6 به معنی جعل عمیق است. در این روش بر مبنای هوش مصنوعی، فیلم، صوت، عکس و متن نوشتاری جعل می‌شوند. این فناوری ابتدا مانند فتوشاپ برای استفاده‌های شغلی و ایجاد نوآوری در صنعت سرگرمی اختراع شد و توسعه پیدا کرد، اما در ادامه، با اینکه سازنده‌ی آن سوءنیتی از طراحی یک نرم‌افزار ویرایش ویدئویی نداشت، از آن بسیار سوءاستفاده شد. در تولید ویدئوهای دیپ‌فیک ابتدا تصویر هدف به سامانه معرفی می‌شود و سپس بر اساس بانک داده‌ای از تصویرها و صداهای موجودِ پیشین و استفاده از هوش مصنوعی، سامانه بر مبنای تصویرهای فرد تصویر هدف را می‌سازد و در نهایت شخصیتی جعلی دیده می‌شود که در حال انجام عملی است که روح فرد حقیقی از آن عمل بی‌خبر است.

در حوزه‌ی تولید صداهای جعلی با روش دیپ‌فیک نیز محققانی که روی تولید صدا پژوهش می‌کنند، با استفاده از سه تا پنج دقیقه از صدای یک فرد که به‌طور زنده ضبط‌ شده یا از یوتیوب یا رادیو به‌دست‌ آمده است، ‌توانسته‌اند صدایی جعلی تولید کنند که نه‌تنها انسان‌ها بلکه سیستم‌های ایمنی زیست‌سنجی (بیومتریک) را فریب ‌دهد. با این روش فناورانه می‌توان با صدای مادرِ یک فرد برای خود آن فرد پیام گذاشت یا شخصی را با انتشار فایلی صوتی بدنام کرد.

محققانِ هوش مصنوعی یکی از شرکت‌های بزرگ رسانه‌ای به‌تازگی توانسته‌اند بر اساس داده‌های دریافتی از صدها ساعت سخنرانی‌های انجام‌شده در تِد و کتاب‌های صوتی، در چارچوب مدل‌های صوتی به جعل هویت صوتی فرد موردنظر خود اقدام ‌کنند؛ به‌طور مثال از طریق این سامانه ‌توانسته‌اند عبارت «گرفتگی عضلات در شنا خطری کوچک نیست» را با صدای چهره‌های مشهور جهان تولید و منتشر کنند.

در انتهای این مطلب، لطفاً درستی یا نادرستی عنوان‌های خبری زیر را  بیان کنید و دلایل لازم را ارائه دهید:

1. خوردن سیب‌های واکس‌زده سرطان‌زاست؛

2. خوردن هم‌زمان دارو با گریپ‌فروت موجب بروز واکنش‌های خطرناک شیمیایی در بدن تا سر حد مرگ می‌شود؛

3. برای عرضه‌ی مجدد آجیل‌های کهنه در بازار از وایتکس رقیق‌شده استفاده می‌شود؛

4. هفت سال طول می‌کشد تا آدامس در معده‌ هضم شود؛

5. رنگ چشم می‌تواند در چند ثانیه از قهوه‌ای به آبی تغییر کند.

 

 

پی‌نوشت‌ها

 

1. www.images.google.com

2. www.izitru.com

3. www.tineye.com

 

4. بر وزن ژِن خوانده می‌شود. محتوایی است که با هدف بازنمایی یک پدیده، موضوع یا معانی مشخص به‌سرعت در سطحی گسترده بازنشر می‌شود. در عصر به‌اشتراک‌گذاشتن محتواهای گوناگون در فضای برخط، میم‌ها به بخشی از گفت‌وگوهای روزمره و فرهنگ عمومی در سطح جهان تبدیل شده‌اند

5. برچسبی است که در فضای مجازی برای دسته‌بندی و به اشتراک‌‌گذاری پست‌ها و نظرات درباره‌ی موضوعی خاص فراتر از فهرست دوستان و در سطح جهان به کار می‌رود

6. Deepfake

 


۲۵۱
کلیدواژه (keyword): رشد آموزش ابتدایی،سواد خبری،راست و ناراست،سیدغلامرضا فلسفی،
برای نظر دادن ابتدا باید به سیستم وارد شوید. برای ورود به سیستم روی کلید زیر کلیک کنید.