کلاهبرداران از هوش مصنوعی مولد مانند ChatGPT و ElevenLabs برای جعل صداها، تولید ایمیلهای فیشینگ پیچیدهتر و توسعه بدافزارها استفاده میکنند. سازمانهای امنیت سایبری برای مقابله با تهدیدات دائماً در حال رشد، خود هوش مصنوعی را اتخاذ میکنند.
به گفته یک تجارت امنیت سایبری که از هوش مصنوعی برای مبارزه با خطر نیز استفاده می کند، هوش مصنوعی مولد (AI) مجموعه ای از تهدیدات امنیت سایبری را ایجاد می کند، به ویژه در طرح های مهندسی اجتماعی که در هنگ کنگ محبوب هستند.
به گفته کیم هاک لیو، مدیر عامل آسیایی Wizlynx Group، یک شرکت خدمات امنیت سایبری مستقر در سوئیس، ظهور ابزارهای قدرتمند هوش مصنوعی مانند ChatGPT برخی از انواع کلاهبرداری ها را گسترده تر و موثرتر می کند.
او افزود: «میتوانیم ببینیم که تقلید صدا و ویدیوی هوش مصنوعی همچنان واقعیتر به نظر میرسد، و میدانیم که میتوان از آن برای بازیگرانی استفاده کرد که میخواهند در اطلاعات و سیستمهای امنیت سایبری شرکتها جای پایی به دست آورند».
کلاهبرداری مصنوعی مصنوعی: 47 درصد از کاربران هندی تلفن، کلاهبرداری صوتی با هوش مصنوعی را تجربه کرده اند که بالاترین میزان در جهان است.
ChatGPT ناشناس می شود: OpenAI تنظیمات حریم خصوصی را برای ChatGPT به روز می کند و حالت «ناشناس» را ارائه می کند
استفاده «خلاقانه» از ابزارهای AI توسط کلاهبرداران
تکنیکهای مهندسی اجتماعی، مانند تکنیکهایی که از طریق تلفن یا از طریق ایمیلهای فیشینگ استفاده میشوند، برای فریب قربانیان به این فکر است که با یک شخص واقعی در آن طرف صف صحبت میکنند.
کلاهبرداری های انجام شده از طریق چت های اینترنتی، تماس های تلفنی و پیام های متنی، 4.8 میلیارد دلار هنگ کنگ (611.5 میلیون دلار آمریکا) در هنگ کنگ افراد را فریب داده است. صدا، ویدئو و متن تولید شده توسط هوش مصنوعی شناسایی این نوع کلاهبرداری ها را دشوارتر می کند.
همچنین بخوانید: کلاهبرداران صدای دختر را با استفاده از هوش مصنوعی در «کلاهبرداری آدم ربایی» شبیه سازی کردند، یک میلیون دلار به عنوان باج طلب کردند.
در یک مورد از سال 2020، یک مدیر مستقر در هنگ کنگ در یک بانک ژاپنی فریب خورده و بر اساس سند دادگاهی که در ابتدا توسط فوربس منتشر شده بود، درخواست انتقال 35 میلیون دلاری را با صدای عمیق جعلی که صدای کارگردان او را تقلید می کرد، مجاز کرد.
کلاهبرداران در نهایت با 400000 دلار فرار کردند زیرا مدیر فکر میکرد ایمیلهایی مبنی بر تایید درخواست کارگردان در صندوق ورودی خود دارد.
یک کلاهبرداری مشابه، یک شرکت انرژی بریتانیایی را متقاعد کرد که تنها یک سال قبل 240000 دلار به حسابی در مجارستان ارسال کند.
دولت ها شروع به شناخت تهدید جدید کرده اند. در پیامی در WeChat در ماه فوریه، اداره امنیت عمومی شهرداری پکن هشدار داد که “شرورها” ممکن است از هوش مصنوعی مولد برای “ارتکاب جنایت و انتشار شایعات” استفاده کنند.
تولید صدای هوش مصنوعی پرکاربردترین ابزار
کمیسیون تجارت فدرال ایالات متحده در ماه مارس هشداری درباره کلاهبردارانی که از صداهای شبیه سازی شده با هوش مصنوعی برای تقلید از افراد استفاده می کنند، صادر کرد و گفت که تنها چیزی که آنها نیاز دارند یک کلیپ صوتی مختصر از صدای شخص از اینترنت است.
به گفته Leow، متن تولید شده توسط هوش مصنوعی که در ایمیلهای فیشینگ استفاده میشود، سناریوی محتملتری نسبت به صدا یا تصویر هوش مصنوعی است.
او توضیح داد: «همه با حملات فیشینگ مواجه میشوند، اما به دلیل طولانی بودن، اشتباهات تایپی یا فقدان زمینه مرتبط با شما و شغلتان به راحتی قابل شناسایی هستند. با این حال، مجرمان سایبری اکنون می توانند از مدل های زبان هوش مصنوعی جدید برای پیچیده تر کردن ایمیل های فیشینگ خود استفاده کنند.
امنیت سایبری باید تقویت شود
لیو گفت: «بر اساس دانش و دادههایی که هوش مصنوعی میتواند در طول زمان جمعآوری و تولید کند، متخصصان امنیت سایبری میتوانند از آن برای شناسایی دقیقتر مناطق خطر و آسیبپذیری یک سیستم امنیتی استفاده کنند.
او افزود: «ما باید متخصصان امنیت سایبری و سایر صنایع را تشویق کنیم تا از ChatGPT برای تقویت دفاعی استفاده کنند. “این یک شمشیر دو لبه است که هم برای امنیت سایبری و هم برای جرایم سایبری استفاده خواهد شد.”
همچنین بخوانید: کلاهبرداران از هوش مصنوعی برای ماهیگیری مردان در Reddit استفاده می کنند، آنها را فریب می دهند تا برای برهنه شدن یک زن تولید شده توسط هوش مصنوعی پول پرداخت کنند.
برخی از تهدیدات شناسایی شده توسط شرکت های امنیت سایبری در حال حاضر فرضی باقی می مانند. Digitpol، ارائهدهنده راهحلهای ریسک دیجیتال در سراسر جهان، هشدار داده است که با ایجاد سریع بدافزار و کدهای خطرناک، ممکن است مدلهای هوش مصنوعی برای اجتناب از فیلترهای امنیتی و امضاهای شناسایی آموزش ببینند.
او گفت: «ما باید امیدوار باشیم که دارندگان ChatGPT و سایر مدلهای هوش مصنوعی مولد هر کاری که ممکن است انجام دهند تا احتمال سوء استفاده توسط بازیگران بد را کاهش دهند.
نحوه توسعه هوش مصنوعی نیز نقش مهمی دارد
شرایط خدمات OpenAI برای ChatGPT استفاده از فناوری آن را برای اهداف غیرقانونی ممنوع می کند. به گفته Leow، این شرکت راه حل های فنی دارد، اما این احتمال وجود دارد که بازیگران بد از فیلتر ChatGPT فرار کنند.
طبق گزارشی از Cybersecurity Ventures، انتظار میرود که جرایم سایبری در سال جاری در سطح جهان 8 تریلیون دلار هزینه داشته باشد که شامل وجوه سرقت شده، از دست دادن اموال و کاهش بهرهوری میشود. این از تولید ناخالص داخلی هر کشوری به جز ایالات متحده و چین بزرگتر خواهد بود.
به گفته دیوید فیرمن، مدیر ارشد اطلاعات آسیا و اقیانوسیه در نتسکوپ، که قبلا مسئولیتهای امنیتی ارشد در موسسات بزرگی مانند رویال بانک کانادا و جیپی مورگان چیس را بر عهده داشت، در مواجهه با این خطر، متخصصان امنیت سایبری به رشد خود ادامه خواهند داد. مسابقه تسلیحاتی هوش مصنوعی
او گفت: «ما در سالها و ماههای آینده شاهد استقبال مؤثر تیمهای امنیتی از هوش مصنوعی برای بهبود شناسایی تهدید و خودکارسازی بیشتر فرآیند دفاعی خواهیم بود». هوش مصنوعی معمولاً در بسیاری از جدیدترین محصولات امنیت سایبری که امروزه توسط تیمهای امنیتی استفاده میشود، استفاده میشود، و ما شاهد تکامل آن خواهیم بود.
همه را بخوانید آخرین خبرها، اخبار پرطرفدار، اخبار کریکت، اخبار بالیوود،
اخبار هند و اخبار سرگرمی اینجا. ما را در فیسبوک دنبال کنید، توییتر و اینستاگرام