مایکروسافت برنامه هوش مصنوعی را راه اندازی کرد که می تواند محتوای نامناسب را علامت گذاری کند

مایکروسافت برنامه هوش مصنوعی را راه اندازی کرد که می تواند محتوای نامناسب را علامت گذاری کند

مایکروسافت یک برنامه هوش مصنوعی جدید راه اندازی کرده است که می تواند تصاویر و محتوای متنی نامناسب را به هشت زبان مختلف شناسایی و پرچم گذاری کند. مایکروسافت معتقد است که این ابزار عالی برای پلتفرم های رسانه های اجتماعی، چت بات ها، بازی های ویدیویی و بسیاری از راه های دیگر خواهد بود.

مایکروسافت Azure AI Content Safety را معرفی کرده است، ابزاری مجهز به هوش مصنوعی که برای شناسایی و علامت گذاری تصاویر و متن های نامناسب به هشت زبان مختلف طراحی شده است. این ابزار برای ایجاد محیط‌های آنلاین امن‌تر با شناسایی و کاهش محتوای مغرضانه، جنسیتی، نژادپرستانه، نفرت‌انگیز، خشونت‌آمیز و خودآزاری طراحی شده است.

به گفته مایکروسافت، امنیت محتوای هوش مصنوعی Azure را می‌توان در پلتفرم‌های مختلفی از جمله شبکه‌های رسانه‌های اجتماعی و بازی‌های چندنفره ادغام کرد، علاوه بر این که در داشبورد هوش مصنوعی خدمات OpenAI Azure مایکروسافت در دسترس است.

انسان‌ها کنترلی برای آموزش ربات هوش مصنوعی خواهند داشت
مایکروسافت برای رسیدگی به چالش‌های رایج در تعدیل محتوای هوش مصنوعی، به کاربران اجازه می‌دهد تا فیلترهای هوش مصنوعی Azure را بر اساس نیازهای زمینه‌ای تنظیم کنند. رتبه بندی شدت تخصیص داده شده توسط این ابزار امکان بازبینی و ممیزی کارآمد توسط ناظران انسانی را فراهم می کند.

مقالات مرتبط

ایلان

ایلان ماسک مایکروسافت را تهدید به شکایت کرد، مدعی است تیم ساتیا نادلا به طور غیرقانونی از داده های توییتر برای آموزش هوش مصنوعی استفاده کرده است.

ایلان

آیا اپل به دنبال ساخت ChatGPT خود است؟ غول فناوری شروع به استخدام استعدادهای برتر در هوش مصنوعی Generative می کند

سخنگوی مایکروسافت تاکید کرد که دستورالعمل‌های این برنامه توسط تیمی از کارشناسان زبان‌شناسی و انصاف تهیه شده است که عوامل فرهنگی، تفاوت‌های زبانی و درک زمینه‌ای را در نظر گرفته‌اند.

به گفته سخنگوی مایکروسافت، مدل جدید هوش مصنوعی Azure درک خود از محتوا و زمینه فرهنگی را در مقایسه با مدل های قبلی به طور قابل توجهی بهبود بخشیده است.

هدف این توسعه جلوگیری از پرچم گذاری غیرضروری مواد خوش خیم است که فاقد زمینه مناسب است. با این حال، سخنگو اذعان کرد که هیچ سیستم هوش مصنوعی کامل نیست و پیشنهاد کرد که از نظارت انسانی برای تأیید نتایج استفاده شود.

محتوای سانسور هوش مصنوعی – یک تجارت بسیار خطرناک
Azure AI از همان فناوری زیربنایی چت ربات هوش مصنوعی مایکروسافت Bing استفاده می کند که در گذشته مشکلات قابل توجهی را تجربه کرده بود. بینگ اظهارات بحث برانگیز، انکار حقایق، تهدید، و حتی تلاش برای بازنویسی تاریخ کرده بود. به دنبال توجه منفی رسانه ها، مایکروسافت محدودیت هایی را برای چت های بینگ اعمال کرد تا تعداد سوالات در هر جلسه و در روز را محدود کند.

مشابه سایر سیستم‌های تعدیل محتوای هوش مصنوعی، هوش مصنوعی Azure برای برچسب‌گذاری داده‌هایی که روی آن‌ها آموزش دیده است، به حاشیه‌نویس‌های انسانی متکی است، به این معنی که در معرض تعصبات برنامه‌نویسان قرار دارد.

این عمل در گذشته منجر به چالش‌هایی در روابط عمومی شده است، مانند اینکه نرم‌افزار تحلیل تصویر گوگل به اشتباه عکس‌های سیاه‌پوستان را به عنوان گوریل برچسب‌گذاری می‌کند. در نتیجه، گوگل گزینه جستجوی بصری گوریل ها و همه نخستی ها را غیرفعال کرد تا از پرچم گذاری ناخواسته انسان ها جلوگیری کند.

مایکروسافت با AGI یا هوش عمومی مصنوعی سر و کار دارد
در ماه مارس، مایکروسافت تیم اخلاق و ایمنی هوش مصنوعی خود را با وجود هیجان فزاینده در مورد مدل‌های زبان بزرگ مانند ChatGPT خاتمه داد و به سرمایه‌گذاری میلیاردها دلار در مشارکت خود با OpenAI، توسعه‌دهنده ChatGPT ادامه داد.

این شرکت اخیراً تمرکز خود را بر روی هوش عمومی مصنوعی (AGI) تغییر داده است و پرسنل خود را که بر روی توسعه AGI کار می کنند، افزایش داده است، با هدف ایجاد سیستم های نرم افزاری که قادر به تولید ایده هایی فراتر از دستورالعمل های برنامه ریزی شده خود هستند.

همه را بخوانید آخرین خبرها، اخبار پرطرفدار، اخبار کریکت، اخبار بالیوود،
اخبار هند و اخبار سرگرمی اینجا. ما را در فیسبوک دنبال کنید، توییتر و اینستاگرام