بررسی تهدید دیپ فیک | گفتوگوی کارشناسان امنیت سایبری درباره تصاویر جعلی مدیرعامل یوتیوب

تصاویر و ویدیو هایی از نیل موهان، مدیرعامل یوتیوب، در کمپین فیشینگ اخیر مورد استفاده قرار گرفته است که این ویدیوهای جعلی توسط هوش مصنوعی از مدیر عامل یوتیوب تولید شده و بمنظور هدف قرار دادن سازندگان محتوا به کار گرفته شده است، این تصاویر جعلی بهعنوان ویدیوهای خصوصی برای اهداف مدنظر ارسال شده تا به این واسطه در سیستم مقصد بدافزار نصب نموده و یا اطلاعات هویتی هدف را سرقت کنند.
در این روش ایمیلی به هدف ارسال میشود که به نظر میرسد از یک آدرس ایمیل رسمی YouTube سرچشمه میگیرد و از آنها میخواهد تا یک ویدیوی خصوصی را که برایشان ارسال شده است مشاهده کنند. در این ویدیو یک تصویر جعلی (دیپ فیک) از موهان وجود دارد که به طور دقیق صدا، ظاهر و حتی رفتارهای او را تقلید می کند. از هدفها خواسته میشود برای تأیید شرایط بهروزرسانی شده YouTube Partner Program (YPP) روی لینک ارسالی کلیک کرده و حساب کاربری خود را وارد کنند تا بتوانند به همه ویژگیها دسترسی داشته باشند و از محتوای خود کسب درآمد کنند. کلیک روی لینک به مهاجمان اجازه می دهد تا حساب کاربری هدف حمله را بدزدند.
در ادامه، نظر کارشناسان امنیت سایبری برجسته دنیا را در مورد این کلاهبرداری با هم بررسی می کنیم:
نیکول کاریگنان، معاون ارشد، استراتژی امنیت و هوش مصنوعی، و CISO در شرکت Darktrace
توانایی مهاجمان برای استفاده از هوش مصنوعی مولد برای تولید صدا، تصاویر و ویدئوهای دیپ فیک یک نگرانی رو به رشد است، زیرا مهاجمان به طور فزاینده ای از دیپ فیک برای شروع حملات پیچیده مهندسی اجتماعی استفاده می کنند. چالشی که اکنون وجود دارد این است که می توان از هوش مصنوعی برای کاهش موانع و سرعت بخشیدن به تولید به کیفیت بالاتر استفاده کرد. از آنجایی که تشخیص دیپفیکها بسیار پیچیده و سخت می باشد، ضروری است که برای تشخیص آن به ابزارهای تقویتشده با هوش مصنوعی روی بیاوریم زیرا انسانها به تنهایی نمیتوانند آخرین نقطه تشخیص و دفاعی باشند.
از آنجایی که مهاجمان امنیتی همواره تکنیکهای جدیدی را اتخاذ میکنند، رویکردهای سنتی برای امنیت سایبری کافی نیست، برای مبارزه با چالشهای نوظهور ناشی از هوش مصنوعی، سازمانها باید از ابزارهای مبتنی بر هوش مصنوعی استفاده کنند تا بتوانند نظارت کامل بلادرنگ فراهم کنند و به تیمهای امنیتی هشدار های لازم را ارائه دهند. در صورت لزوم، سازمانها باید با یکپارچهسازی سیستم های نظارت امنیتی، برای تسریع واکنش تیم های امنیتی، از تهدیدهای جدید جلوتر باشند. لذا پذیرش فناوریهای هوش مصنوعی – مانند راهحلهایی با قابلیتهای تشخیص مبتنی بر ناهنجاری که میتوانند تهدیدهای قبلاً دیده نشده را شناسایی کرده و به آنها پاسخ دهند – میتواند در حفظ امنیت سازمانها مؤثر باشد.
J Stephen Kowski، مدیرعامل شرکت Security Plus
هوش مصنوعی به مهاجمان امکان میدهد تا ایمیلهای فیشینگ قانعکنندهتر، دیپفیکها و اسکریپتهای حمله خودکار را در مقیاس وسیع ایجاد کنند. این فناوریها به مهاجمان سایبری اجازه میدهند تا تکنیک های مهندسی اجتماعی را شخصیسازی کنند و به سرعت تاکتیکهای خود را ارتقا دهند و روش های دفاع سنتی را بی اثر کنند. آنچه قبلاً بعنوان آسیب پذیری روز صفر مطرح بود، اکنون حداقل ساعت صفر است و عوامل انسانی به تنهایی قادر به ادامه دادن نخواهند بود.
برای مقابله با حملات ایجاد شده توسط هوش مصنوعی، سازمانها باید راهحلهای امنیتی را به کار گیرند که از هوش مصنوعی مولد استفاده میکنند و از یادگیری ماشین برای تشخیص ناهنجاریها در محتوای ایمیل، رفتار فرستنده و الگوهای ارتباطی استفاده میکنند. پیادهسازی فناوری پیشرفته ضد فیشینگ که میتواند تلاشهای پیچیده جعل هویت را بصورت بلادرنگ شناسایی و مسدود کند، برای دفاع در برابر این تهدیدات در حال تحول حیاتی است. پیشنهاد می شود امنیت ایمیل پیشرفته با تشخیص تهدید مبتنی بر هوش مصنوعی پیادهسازی شود، احراز هویت چند عاملی (MFA) را فعال شود و آموزشهای آگاهی امنیتی منظمی برای کارمندان برگزار شود.
جیمز اسکوبی، مدیر ارشد امنیت اطلاعات درKeeper Security
تهدیدهای هویت سنتی برای کاربران همچنان در حال تکامل است. حملات فیشینگ به طور فزاینده ای هدفمندتر می شوند و از تاکتیک های بسیار شخصی سازی شده استفاده می کنند که توسط مهندسی اجتماعی با هوش مصنوعی هدایت می شود. دیپفیک نگرانی خاصی در این زمینه می باشد، زیرا مدلهای هوش مصنوعی این روشهای حمله را سریعتر، ارزانتر و قانعکنندهتر میکنند. با پیچیدهتر شدن مهاجمان، نیاز به روشهای تأیید هویت قویتر و پویاتر – مانند MFA و بیومتریک – برای دفاع در برابر این تهدیدات ضروری خواهد بود.
هوش مصنوعی مولد امسال نقشی دوگانه در چشم انداز تهدید هویت ایفا خواهد کرد. از یک طرف، مهاجمان را قادر میسازد تا دیپفیکهای پیچیدهتری ایجاد کنند – چه از طریق متن، صدا یا دستکاری بصری – که میتواند به طور متقاعدکنندهای از افراد واقعی تقلید کند. این جعل هویتهای مبتنی بر هوش مصنوعی در صدد تضعیف اقدامات امنیتی سنتی، مانند بیومتریک صدا یا تشخیص چهره هستند، که مدتهاست بخشی اصلی در تأیید هویت بودهاند. این روزها کارمندان بیشتر تماسهای ویدیویی و صوتی از رهبران ارشد سازمان خود دریافت میکنند و به آنها میگویند که به سرعت به منابع محافظتشده دسترسی داشته باشند. از آنجایی که تشخیص این دیپ فیک ها از واقعیت دشوارتر می شود، حتی برای دور زدن پیشرفته ترین سیستم های امنیتی نیز از آنها استفاده می شود.
گابریل همپل، استراتژیست عملیات امنیتی در Exabeam
بسیاری از حملات دیپ فیک اولیه که دیدهایم فقط جعل هویت صوتی یا فیلمهای دستکاری شدهای هستند که قبلاً وجود داشتهاند. این یک پیشرفت نگرانکننده است زیرا شامل یک ویدیوی ساختگی است که بسیار متقاعدکننده است و واقعاً نشان میدهد که مهاجمان تا چه اندازه میخواهند حملات فیشینگ را مؤثرتر کنند.
به نظر میرسد “جستجوی ناهماهنگی در کیفیت” همچنان مؤثرترین راه برای شناسایی دیپ فیک ها باشد، اگرچه این کار با بهتر شدن فناوری سختتر میشود. حرکات غیرطبیعی صورت، کلماتی که با دهان همخوانی ندارند و اشکالات پس زمینه معمولاً نشانه های گویایی هستند.
موانع دسترسی به ابزارهایی که امکان حملات پیچیده را فراهم می کنند بسیار کم شده است. انجام این کار هم آسان و هم مقرون به صرفه است که آن را برای هر کسی قابل اجرا می کن. در حال حاضر هیچ راه حل عالی ای وجود ندارد که بدون چشم انسان روی فیلم این کار را انجام دهد، و این روش نیز اصلا قابل اعتماد نیست.