کلاهبرداران، هکرها با استفاده از هوش مصنوعی مولد مانند ChatGPT در مسابقه تسلیحاتی امنیت سایبری

تسلیحات هوش مصنوعی: کلاهبرداران، هکرها با استفاده از هوش مصنوعی مولد مانند ChatGPT در مسابقه تسلیحاتی امنیت سایبری

کلاهبرداران از هوش مصنوعی مولد مانند ChatGPT و ElevenLabs برای جعل صداها، تولید ایمیل‌های فیشینگ پیچیده‌تر و توسعه بدافزارها استفاده می‌کنند. سازمان‌های امنیت سایبری برای مقابله با تهدیدات دائماً در حال رشد، خود هوش مصنوعی را اتخاذ می‌کنند.

به گفته یک تجارت امنیت سایبری که از هوش مصنوعی برای مبارزه با خطر نیز استفاده می کند، هوش مصنوعی مولد (AI) مجموعه ای از تهدیدات امنیت سایبری را ایجاد می کند، به ویژه در طرح های مهندسی اجتماعی که در هنگ کنگ محبوب هستند.

به گفته کیم هاک لیو، مدیر عامل آسیایی Wizlynx Group، یک شرکت خدمات امنیت سایبری مستقر در سوئیس، ظهور ابزارهای قدرتمند هوش مصنوعی مانند ChatGPT برخی از انواع کلاهبرداری ها را گسترده تر و موثرتر می کند.

او افزود: «می‌توانیم ببینیم که تقلید صدا و ویدیوی هوش مصنوعی همچنان واقعی‌تر به نظر می‌رسد، و می‌دانیم که می‌توان از آن برای بازیگرانی استفاده کرد که می‌خواهند در اطلاعات و سیستم‌های امنیت سایبری شرکت‌ها جای پایی به دست آورند».

کلاهبرداری مصنوعی مصنوعی: 47 درصد از کاربران هندی تلفن، کلاهبرداری صوتی با هوش مصنوعی را تجربه کرده اند که بالاترین میزان در جهان است.

ChatGPT ناشناس می شود: OpenAI تنظیمات حریم خصوصی را برای ChatGPT به روز می کند و حالت «ناشناس» را ارائه می کند

استفاده «خلاقانه» از ابزارهای AI توسط کلاهبرداران
تکنیک‌های مهندسی اجتماعی، مانند تکنیک‌هایی که از طریق تلفن یا از طریق ایمیل‌های فیشینگ استفاده می‌شوند، برای فریب قربانیان به این فکر است که با یک شخص واقعی در آن طرف صف صحبت می‌کنند.

کلاهبرداری های انجام شده از طریق چت های اینترنتی، تماس های تلفنی و پیام های متنی، 4.8 میلیارد دلار هنگ کنگ (611.5 میلیون دلار آمریکا) در هنگ کنگ افراد را فریب داده است. صدا، ویدئو و متن تولید شده توسط هوش مصنوعی شناسایی این نوع کلاهبرداری ها را دشوارتر می کند.

همچنین بخوانید: کلاهبرداران صدای دختر را با استفاده از هوش مصنوعی در «کلاهبرداری آدم ربایی» شبیه سازی کردند، یک میلیون دلار به عنوان باج طلب کردند.

در یک مورد از سال 2020، یک مدیر مستقر در هنگ کنگ در یک بانک ژاپنی فریب خورده و بر اساس سند دادگاهی که در ابتدا توسط فوربس منتشر شده بود، درخواست انتقال 35 میلیون دلاری را با صدای عمیق جعلی که صدای کارگردان او را تقلید می کرد، مجاز کرد.

کلاهبرداران در نهایت با 400000 دلار فرار کردند زیرا مدیر فکر می‌کرد ایمیل‌هایی مبنی بر تایید درخواست کارگردان در صندوق ورودی خود دارد.

یک کلاهبرداری مشابه، یک شرکت انرژی بریتانیایی را متقاعد کرد که تنها یک سال قبل 240000 دلار به حسابی در مجارستان ارسال کند.

دولت ها شروع به شناخت تهدید جدید کرده اند. در پیامی در WeChat در ماه فوریه، اداره امنیت عمومی شهرداری پکن هشدار داد که “شرورها” ممکن است از هوش مصنوعی مولد برای “ارتکاب جنایت و انتشار شایعات” استفاده کنند.

تولید صدای هوش مصنوعی پرکاربردترین ابزار
کمیسیون تجارت فدرال ایالات متحده در ماه مارس هشداری درباره کلاهبردارانی که از صداهای شبیه سازی شده با هوش مصنوعی برای تقلید از افراد استفاده می کنند، صادر کرد و گفت که تنها چیزی که آنها نیاز دارند یک کلیپ صوتی مختصر از صدای شخص از اینترنت است.

به گفته Leow، متن تولید شده توسط هوش مصنوعی که در ایمیل‌های فیشینگ استفاده می‌شود، سناریوی محتمل‌تری نسبت به صدا یا تصویر هوش مصنوعی است.

او توضیح داد: «همه با حملات فیشینگ مواجه می‌شوند، اما به دلیل طولانی بودن، اشتباهات تایپی یا فقدان زمینه مرتبط با شما و شغلتان به راحتی قابل شناسایی هستند. با این حال، مجرمان سایبری اکنون می توانند از مدل های زبان هوش مصنوعی جدید برای پیچیده تر کردن ایمیل های فیشینگ خود استفاده کنند.

امنیت سایبری باید تقویت شود
لیو گفت: «بر اساس دانش و داده‌هایی که هوش مصنوعی می‌تواند در طول زمان جمع‌آوری و تولید کند، متخصصان امنیت سایبری می‌توانند از آن برای شناسایی دقیق‌تر مناطق خطر و آسیب‌پذیری یک سیستم امنیتی استفاده کنند.

او افزود: «ما باید متخصصان امنیت سایبری و سایر صنایع را تشویق کنیم تا از ChatGPT برای تقویت دفاعی استفاده کنند. “این یک شمشیر دو لبه است که هم برای امنیت سایبری و هم برای جرایم سایبری استفاده خواهد شد.”

همچنین بخوانید: کلاهبرداران از هوش مصنوعی برای ماهیگیری مردان در Reddit استفاده می کنند، آنها را فریب می دهند تا برای برهنه شدن یک زن تولید شده توسط هوش مصنوعی پول پرداخت کنند.

برخی از تهدیدات شناسایی شده توسط شرکت های امنیت سایبری در حال حاضر فرضی باقی می مانند. Digitpol، ارائه‌دهنده راه‌حل‌های ریسک دیجیتال در سراسر جهان، هشدار داده است که با ایجاد سریع بدافزار و کدهای خطرناک، ممکن است مدل‌های هوش مصنوعی برای اجتناب از فیلترهای امنیتی و امضاهای شناسایی آموزش ببینند.

او گفت: «ما باید امیدوار باشیم که دارندگان ChatGPT و سایر مدل‌های هوش مصنوعی مولد هر کاری که ممکن است انجام دهند تا احتمال سوء استفاده توسط بازیگران بد را کاهش دهند.

نحوه توسعه هوش مصنوعی نیز نقش مهمی دارد
شرایط خدمات OpenAI برای ChatGPT استفاده از فناوری آن را برای اهداف غیرقانونی ممنوع می کند. به گفته Leow، این شرکت راه حل های فنی دارد، اما این احتمال وجود دارد که بازیگران بد از فیلتر ChatGPT فرار کنند.

طبق گزارشی از Cybersecurity Ventures، انتظار می‌رود که جرایم سایبری در سال جاری در سطح جهان 8 تریلیون دلار هزینه داشته باشد که شامل وجوه سرقت شده، از دست دادن اموال و کاهش بهره‌وری می‌شود. این از تولید ناخالص داخلی هر کشوری به جز ایالات متحده و چین بزرگتر خواهد بود.

به گفته دیوید فیرمن، مدیر ارشد اطلاعات آسیا و اقیانوسیه در نتسکوپ، که قبلا مسئولیت‌های امنیتی ارشد در موسسات بزرگی مانند رویال بانک کانادا و جی‌پی مورگان چیس را بر عهده داشت، در مواجهه با این خطر، متخصصان امنیت سایبری به رشد خود ادامه خواهند داد. مسابقه تسلیحاتی هوش مصنوعی

او گفت: «ما در سال‌ها و ماه‌های آینده شاهد استقبال مؤثر تیم‌های امنیتی از هوش مصنوعی برای بهبود شناسایی تهدید و خودکارسازی بیشتر فرآیند دفاعی خواهیم بود». هوش مصنوعی معمولاً در بسیاری از جدیدترین محصولات امنیت سایبری که امروزه توسط تیم‌های امنیتی استفاده می‌شود، استفاده می‌شود، و ما شاهد تکامل آن خواهیم بود.

همه را بخوانید آخرین خبرها، اخبار پرطرفدار، اخبار کریکت، اخبار بالیوود،
اخبار هند و اخبار سرگرمی اینجا. ما را در فیسبوک دنبال کنید، توییتر و اینستاگرام