مقالات

بررسی تهدید دیپ فیک | گفت‌وگوی کارشناسان امنیت سایبری درباره تصاویر جعلی مدیرعامل یوتیوب

دیپ فیک Deepfake

تصاویر و ویدیو هایی از نیل موهان، مدیرعامل یوتیوب، در کمپین فیشینگ اخیر مورد استفاده قرار گرفته است که این ویدیوهای جعلی توسط هوش مصنوعی از مدیر عامل یوتیوب تولید شده و بمنظور هدف قرار دادن سازندگان محتوا به کار گرفته شده است، این تصاویر جعلی به‌عنوان ویدیوهای خصوصی برای اهداف مدنظر ارسال شده تا به این واسطه در سیستم مقصد بدافزار نصب نموده و یا اطلاعات هویتی هدف را سرقت کنند.

در این روش ایمیلی به هدف ارسال می‌شود که به نظر می‌رسد از یک آدرس ایمیل رسمی YouTube سرچشمه می‌گیرد و از آنها می‌خواهد تا یک ویدیوی خصوصی را که برایشان ارسال شده است مشاهده کنند. در این ویدیو یک تصویر جعلی (دیپ فیک) از موهان وجود دارد که به طور دقیق صدا، ظاهر و حتی رفتارهای او را تقلید می کند. از هدف‌ها خواسته می‌شود برای تأیید شرایط به‌روزرسانی شده YouTube Partner Program (YPP)  روی لینک ارسالی  کلیک کرده و حساب کاربری خود را وارد کنند تا بتوانند به همه ویژگی‌ها دسترسی داشته باشند و از محتوای خود کسب درآمد کنند. کلیک روی لینک به مهاجمان اجازه می دهد تا حساب کاربری هدف حمله را بدزدند.

در ادامه، نظر کارشناسان امنیت سایبری  برجسته دنیا را در مورد این کلاهبرداری با هم بررسی می کنیم:

نیکول کاریگنان، معاون ارشد، استراتژی امنیت و هوش مصنوعی، و CISO در شرکت  Darktrace

توانایی مهاجمان برای استفاده از هوش مصنوعی مولد برای تولید صدا، تصاویر و ویدئوهای دیپ فیک یک نگرانی رو به رشد است، زیرا مهاجمان به طور فزاینده ای از دیپ فیک برای شروع حملات پیچیده مهندسی اجتماعی استفاده می کنند. چالشی که اکنون وجود دارد این است که می توان از هوش مصنوعی برای کاهش موانع و سرعت بخشیدن به تولید به کیفیت بالاتر استفاده کرد. از آنجایی که تشخیص دیپ‌فیک‌ها بسیار پیچیده و سخت می باشد، ضروری است که برای تشخیص آن به ابزارهای تقویت‌شده با هوش مصنوعی روی بیاوریم زیرا انسان‌ها به تنهایی نمی‌توانند آخرین نقطه تشخیص و دفاعی باشند.

از آنجایی که مهاجمان امنیتی همواره تکنیک‌های جدیدی را اتخاذ می‌کنند، رویکردهای سنتی برای امنیت سایبری کافی نیست، برای مبارزه با چالش‌های نوظهور ناشی از هوش مصنوعی، سازمان‌ها باید از ابزارهای مبتنی بر هوش مصنوعی استفاده کنند تا بتوانند نظارت کامل بلادرنگ فراهم کنند و به تیم‌های امنیتی هشدار های لازم را ارائه دهند. در صورت لزوم، سازمان‌ها باید با یکپارچه‌سازی سیستم های نظارت امنیتی، برای تسریع واکنش تیم های امنیتی، از تهدیدهای جدید جلوتر باشند. لذا پذیرش فناوری‌های هوش مصنوعی – مانند راه‌حل‌هایی با قابلیت‌های تشخیص مبتنی بر ناهنجاری که می‌توانند تهدیدهای قبلاً دیده نشده را شناسایی کرده و به آنها پاسخ دهند – می‌تواند در حفظ امنیت سازمان‌ها مؤثر باشد.

J Stephen Kowski، مدیرعامل شرکت Security Plus

هوش مصنوعی به مهاجمان امکان می‌دهد تا ایمیل‌های فیشینگ قانع‌کننده‌تر، دیپ‌فیک‌ها و اسکریپت‌های حمله خودکار را در مقیاس وسیع ایجاد کنند. این فناوری‌ها به مهاجمان سایبری اجازه می‌دهند تا تکنیک های مهندسی اجتماعی را شخصی‌سازی کنند و به سرعت تاکتیک‌های خود را ارتقا دهند و روش های دفاع‌ سنتی را بی اثر کنند. آنچه قبلاً بعنوان آسیب پذیری روز صفر مطرح بود، اکنون حداقل ساعت صفر است و عوامل انسانی به تنهایی قادر به ادامه دادن نخواهند بود.

برای مقابله با حملات ایجاد شده توسط هوش مصنوعی، سازمان‌ها باید راه‌حل‌های امنیتی را به کار گیرند که از هوش مصنوعی مولد استفاده می‌کنند و از یادگیری ماشین برای تشخیص ناهنجاری‌ها در محتوای ایمیل، رفتار فرستنده و الگوهای ارتباطی استفاده می‌کنند. پیاده‌سازی فناوری پیشرفته ضد فیشینگ که می‌تواند تلاش‌های پیچیده جعل هویت را بصورت بلادرنگ شناسایی و مسدود کند، برای دفاع در برابر این تهدیدات در حال تحول حیاتی است. پیشنهاد می شود امنیت ایمیل پیشرفته با تشخیص تهدید مبتنی بر هوش مصنوعی پیاده‌سازی شود، احراز هویت چند عاملی (MFA) را فعال شود و آموزش‌های آگاهی امنیتی منظمی برای کارمندان برگزار شود.

جیمز اسکوبی، مدیر ارشد امنیت اطلاعات درKeeper Security

تهدیدهای هویت سنتی برای کاربران همچنان در حال تکامل است. حملات فیشینگ به طور فزاینده ای هدفمندتر می شوند و از تاکتیک های بسیار شخصی سازی شده استفاده می کنند که توسط مهندسی اجتماعی با هوش مصنوعی هدایت می شود. دیپ‌فیک‌ نگرانی خاصی در این زمینه می باشد، زیرا مدل‌های هوش مصنوعی این روش‌های حمله را سریع‌تر، ارزان‌تر و قانع‌کننده‌تر می‌کنند. با پیچیده‌تر شدن مهاجمان، نیاز به روش‌های تأیید هویت قوی‌تر و پویاتر – مانند MFA و بیومتریک – برای دفاع در برابر این تهدیدات ضروری خواهد بود.

هوش مصنوعی مولد امسال نقشی دوگانه در چشم انداز تهدید هویت ایفا خواهد کرد. از یک طرف، مهاجمان را قادر می‌سازد تا دیپ‌فیک‌های پیچیده‌تری ایجاد کنند – چه از طریق متن، صدا یا دستکاری بصری – که می‌تواند به طور متقاعدکننده‌ای از افراد واقعی تقلید کند. این جعل هویت‌های مبتنی بر هوش مصنوعی در صدد تضعیف اقدامات امنیتی سنتی، مانند بیومتریک صدا یا تشخیص چهره هستند، که مدت‌هاست بخشی اصلی در تأیید هویت بوده‌اند. این روزها کارمندان بیشتر تماس‌های ویدیویی و صوتی از رهبران ارشد سازمان خود دریافت می‌کنند و به آنها می‌گویند که به سرعت به منابع محافظت‌شده دسترسی داشته باشند. از آنجایی که تشخیص این دیپ فیک ها از واقعیت دشوارتر می شود، حتی برای دور زدن پیشرفته ترین سیستم های امنیتی نیز از آنها استفاده می شود.

گابریل همپل، استراتژیست عملیات امنیتی در Exabeam

بسیاری از حملات دیپ‌ فیک اولیه که دیده‌ایم فقط جعل هویت صوتی یا فیلم‌های دستکاری شده‌ای هستند که قبلاً وجود داشته‌اند. این یک پیشرفت نگران‌کننده است زیرا شامل یک ویدیوی ساختگی است که بسیار متقاعدکننده است و واقعاً نشان می‌دهد که مهاجمان تا چه اندازه می‌خواهند حملات فیشینگ را مؤثرتر کنند.

به نظر می‌رسد “جستجوی ناهماهنگی در کیفیت”  همچنان مؤثرترین راه برای شناسایی دیپ فیک ها باشد، اگرچه این کار با بهتر شدن فناوری سخت‌تر می‌شود. حرکات غیرطبیعی صورت، کلماتی که با دهان همخوانی ندارند و اشکالات پس زمینه معمولاً نشانه های گویایی هستند.

موانع دسترسی به ابزارهایی که امکان حملات پیچیده را فراهم می کنند بسیار کم شده است. انجام این کار هم آسان و هم مقرون به صرفه است که آن را برای هر کسی قابل اجرا می کن. در حال حاضر هیچ راه حل عالی ای وجود ندارد که بدون چشم انسان روی فیلم این کار را انجام دهد، و این روش نیز اصلا قابل اعتماد نیست.

از آشنایی با شما خوشحالیم 👋

برای باخبر شدن از آخرین خبرهای دنیای امنیت، لطفا در خبرنامه سیندادسک عضو شوید.