[ad_1]
[보안뉴스 문가용 기자] در عصر اطلاعات ، تکنیک ها و اعمالی که از اطلاعات غلط استفاده می کنند به طور قابل توجهی افزایش یافته اند. طبق تجزیه و تحلیل محققان MIT ، از بین 126000 مقاله ایجاد شده بین سال های 2006 و 2016 ، مقالات متعلق به “اخبار جعلی” شش برابر سریعتر از مقالاتی که واقعیت را بیان می کنند ، در شبکه های اجتماعی پخش می شوند.

[이미지 = utoimage]
چه شما به طور تصادفی محتوای نادرستی را منتشر کنید و چه عمدی ، این درست است که قدرت فراگیر اطلاعات نادرست بسیار زیاد است. خوشبختانه اکثر دولت های جعلی همان چیزی را دارند که با کمک ربات ها توزیع می کنند. بنابراین کنار آمدن امکان پذیر است. اخباری که رباتها به عمد منتشر می کنند دارای خصوصیات زیر است.
1. شبکه غیر طبیعی متراکم
اخبار جعلی یک چالش بزرگ دارند: آنها باید واقعی به نظر برسند. برای واقعی به نظر رسیدن در شبکه های اجتماعی ، بهتر است تعداد زیادی فالوور داشته باشید. همچنین داشتن حساب های بسیاری که خودتان آنها را دنبال می کنید بسیار مفید است. بنابراین ، این حساب ها تعداد زیادی پیرو و دنبال کننده دارند. مشکل این است که آنها اغلب برای انجام این کار پیوندهای دیگر حسابهای جعلی را دنبال و دنبال می کنند. در رسانه های اجتماعی واقعی ، ربات ها با ربات ها ارتباط برقرار می کنند. تفاوت بین یک شخص و یک شخص در هنگام دوست شدن در شبکه های اجتماعی به شرح زیر است.
1) داستانهای کمی وجود دارد که در مقایسه با تعداد زیادی فالوور / دنبال کننده از شبکه تشکیل شده توسط رباتها بیرون بیایند. این تعادل بسیار غیر طبیعی است.
2) بنابراین می توان شبکه ربات ها را برای هدف قرار دادن ردیابی و درک کرد.
3) از بین آنها ، حساب متعلق به “master bot” کمی انسانی تر به نظر می رسد. و آنها با افراد واقعی بیشتری رابطه دارند. حساب های ربات عادی دارای مشخصات نازک هستند.
شبکه رباتها از موضوع مکالمه خارج می شوند ، که در واقع داغ است. اگر از ساختار مکالمه ای که در اطراف یک موضوع پخش می شود نقشه برداری کنید ، حساب های ربات به ندرت در مرکز قرار دارند. شکل آن مانند توموری است که از اندام های واقعی آویزان است. آیا چیزی وجود دارد که فقط شامل فعالیت های تکه تکه از راه دور باشد؟ احتمالاً ربات است.
2. الگوریتمی بنویسید و بنویسید
وقتی افراد در شبکه های اجتماعی تعامل می کنند ، “محتوای اصلی” ناگزیر تا حدی ایجاد می شود. علاوه بر این ، بازنشر مجدد محتوای خارجی آزار دهنده است. البته ، نظرات و نظرات وجود دارد. در مورد ربات ها چطور؟ دقیقاً برعکس. موارد بسیار کمی وجود دارد که بتوانیم آنها را محتوای دست نویس بنامیم. تقریباً همه موارد پست (یا ربات) شخص دیگری را بازتولید می کنند. همچنین مکالمات واقعی کمی وجود دارد که منجر به نظرات و نظرات بزرگ شود. فناوری ظاهری به نظر رسیدن مردم هنوز در شبکه های اجتماعی به ربات ها منتقل نشده است.
3. زمان یا فاصله انتشار بسیار یکنواخت است
مردم “هر وقت بخواهند” پست می گذارند. در وسط او غذا می خورد ، می خوابد و کارهای لازم زندگی خود را انجام می دهد. نامنظم است رباتها متفاوت هستند. رباتهای پیشرفته تصادفی بودن را نشان می دهند ، اما بیشتر آنها بصورت آماری در زمانهای بسیار دقیق منتشر می شوند. به دنبال این زمان ، من اغلب به این نتیجه می رسم که به نظر نمی رسد صاحب حساب خواب است. او نمی خوابد و به شرکت نمی رود اما شبیه شخصی است که فقط در شبکه های اجتماعی پست می گذارد. اگر مشکوک هستید ، لطفاً ساعات فعالیت را در حساب خود مشخص کنید.
4- فعالیت ها فقط برای دسته های خاص
رباتها معمولاً یک “رنگ” یا “هدف” صریح نشان می دهند. سرانجام ، او خود را به عنوان یک انسان مبدل می کند ، اما این یک ویژگی است که ظهور می کند زیرا یک ابزار خودکار است. به عنوان مثال ، یک حساب ربات فعالیت فعال کافی را برای ارسال میانگین 18 پست در ساعت در 24 ساعت نشان می دهد. با این حال ، 80٪ از این مطالب ، به طور عمده برای بازنشر مطالب توسط نویسندگان ، ترانه سرایان و هنرمندان خاص ، تکراری است. این ربات ها محصول کسانی نیستند که اهداف سیاسی دارند ، بلکه بیشتر ابزاری هستند که نویسندگان و هنرمندان برای افزایش آگاهی خود از آنها استفاده می کنند.
برخی از ربات های سیاسی دارای “برنامه های انتشار مکانیکی” مانند موارد فوق هستند ، اما اکثر آنها پر از مقاله هایی است که به انتقاد از رژیم های غربی می پردازد. علاوه بر این ، مقالاتی که ستایشگر هدایت کشورهایی مانند روسیه بود بسیار گسترده بود. حسابهای دیگری که با آنها تماس گرفتم مشابه بودند و آنها همان پست ها را با یکدیگر توزیع و توزیع می کردند.
نکات همه جا هستند … هنوز
شبکه ربات مهمترین ابزار برای انتشار اطلاعات نادرست در شبکه های اجتماعی است. با این حال ، این فناوری کمی نادرتر شده است و قسمتهای زیادی وجود دارد که به تنهایی پوشیدن آنها ناراحت کننده است. بنابراین ، اگر چشمان خود را تا حدی باز کنید و سعی کنید نکاتی را پیدا کنید ، می توانید هر تعداد از آنها را پیدا کنید. تا زمانی که فناوری تکامل نیابد و ربات هایی که واقعاً شبیه انسان هستند ظاهر شوند ، اطلاعات نادرست می توانند به اندازه کافی فیلتر شوند.
نوشته شده توسط کوین گراهام ، معاون رئیس جمهور ، خیابان بابل
[국제부 문가용 기자([email protected])]
www.boannews.com) پخش غیرمجاز-توزیع مجدد ممنوع>
[ad_2]