یک محقق دریافته است که ChatGPT و GPT-4 دارای EQ یا هوش هیجانی عالی هستند. با این حال، برنامه های مبتنی بر ChatGPT و GPT-4 علاوه بر توهم و اشتباه گرفتن حقایق، بر احساسات به جای واقعیت ها تأکید دارند.
یک مطالعه جدید نشان داده است که ChatGPT و GPT-4 دارای هوش هیجانی بالایی هستند و می توانند به عنوان ابزاری عالی برای آموزش کودکان استفاده شوند. بیل گیتس حتی تا حدی پیش رفت که گفت که برنامه های مبتنی بر ChatGPT و GPT-4 توسط معلمان برای آموزش دانش آموزان در حدود 18 ماه استفاده می شود.
با این حال، برخی از مسائل آشکار نیز وجود دارد. این مطالعه نشان داد که نه تنها ChatGPT و GPT-4 دارای هوش هیجانی بالایی هستند، بلکه در تعدادی از موارد تمایل دارند احساسات را بر واقعیت ها ترجیح دهند.
تصادفاً به EQ ChatGPT رسیدیم
آرویند نارایانان، استاد علوم کامپیوتر در پرینستون، برای دختر تقریبا چهار سالهاش یک رابط گفتاری برای ChatGPT راهاندازی کرد. این بخشی از یک آزمایش بود و بخشی از اعتقاد او به این بود که عوامل هوش مصنوعی (AI) روزی نقش مهمی در زندگی او بازی خواهند کرد. دختر نارایانان به طور طبیعی علاقه مند بود و مکرراً در مورد حیوانات، گیاهان و بدن انسان پرس و جو می کرد و او معتقد بود که ChatGPT ممکن است پاسخ های مفیدی ارائه دهد.
داستان ترسناک ChatGPT: Redditor از ChatGPT میخواهد داستانی ترسناک بنویسد، ربات هوش مصنوعی زمان زیادی را ارائه میکند
هوش مصنوعی به کمک می آید: ChatGPT به امتحان ACE دانش آموز کمک می کند، با وجود اینکه او در هیچ کلاسی شرکت نمی کند.
همچنین بخوانید: ChatGPT ناشناس می شود: OpenAI تنظیمات حریم خصوصی را برای ChatGPT به روز می کند و حالت «ناشناس» را ارائه می کند
در کمال تعجب او، چت ربات OpenAI پس از اینکه به سیستم اطلاع داد که با یک کودک کوچک صحبت می کند، عملکرد تحسین برانگیزی از لحاظ همدلی داشت.
شرکت مایکروسافت و شرکت آلفابت گوگل در حال رقابت برای بهبود موتورهای جستجوی خود با استفاده از فناوری مدل زبانی عظیمی هستند که ChatGPT را تقویت میکند، اما دلیلی وجود دارد که باور کنیم این فناوری به عنوان یک همراه عاطفی بهتر عمل میکند تا منبع اطلاعات.
این ممکن است عجیب به نظر برسد، اما چیزی که عجیبتر است این است که Bard Google و Bing مایکروسافت، که هر دو مبتنی بر فناوری زیربنایی ChatGPT هستند، با وجود سابقه اشتباهات واقعی شرمآور، به عنوان ابزار جستجو قرار میگیرند.
توهم BardAI و ChatGPT
در اولین نمایش خود، بارد اطلاعات نادرستی در مورد تلسکوپ جیمز وب ارائه کرد، در حالی که بینگ در معرفی خود یک سری اشتباهات مالی مرتکب شد.
هنگامی که یک چت بات برای جستجو استفاده می شود، هزینه خطاهای واقعی قابل توجه است. به گفته Eugenia Kuyda، مخترع برنامه همراه هوش مصنوعی Replika، که بیش از 5 میلیون بار دانلود شده است، زمانی که به عنوان یک همراه در نظر گرفته شود، به طور قابل توجهی کمتر است.
همچنین بخوانید: هوش مصنوعی به کمک می آید: ChatGPT به امتحان ACE دانش آموز کمک می کند، با وجود اینکه او در هیچ کلاسی شرکت نمی کند
کویدا توضیح داد: «برخلاف جستجو که اشتباهات کوچک می توانند اعتماد به محصول را از بین ببرند، تجربه را خراب نمی کند.
مارگارت میچل، محقق سابق هوش مصنوعی گوگل که مطالعهای در مورد خطرات مدلهای بزرگ زبان انجام داده است، اظهار داشته است که آنها به عنوان موتورهای جستجو «برای هدف مناسب نیستند».
مدلهای زبانی اشتباهاتی ایجاد میکنند، زیرا دادههایی که بر روی آنها آموزش داده میشوند، اغلب حاوی نادرستی هستند، و مدلها هیچ حقیقتی برای تأیید آنچه میگویند ندارند. طراحان آنها همچنین ممکن است تسلط را بر دقت در اولویت قرار دهند.
این یکی از دلایلی است که این ابزارها در شبیه سازی همدلی بسیار خوب هستند. به هر حال، آنها از محتوای خراشیده شده از اینترنت، مانند پاسخ های گویا که در پلتفرم های شبکه های اجتماعی مانند توییتر و فیس بوک بیان می شوند، و همچنین کمک های شخصی ارائه شده به اعضای انجمن هایی مانند Reddit و Quora، یاد می گیرند.
EQ ChatGPT آن را به یک درمانگر عالی تبدیل می کند. یا این کار را می کند؟
مکالمات از فیلمنامههای نمایشهای تلویزیونی و فیلمها، دیالوگهای رمانها و مقالات تحقیقاتی هوش هیجانی همگی در ظرف آموزشی ریخته میشوند تا این ابزارها دلسوز به نظر برسند.
طبق مقاله ای که این ماه در بلومبرگ بیزینس ویک منتشر شد، برخی از افراد از ChatGPT به عنوان یک نوع روبات درمانگر استفاده می کنند. یکی از کاربران اظهار داشت که آنها از آن برای جلوگیری از سربار دیگران، حتی درمانگر انسانی خود، استفاده کردند.
همچنین بخوانید: ربات هوش مصنوعی به عنوان یک درمانگر: پلت فرم سلامت روان ایالات متحده با استفاده از ChatGPT در مشاوره منجر به بحث و جدل می شود
روانشناس بالینی توماس وارد از کینگز کالج لندن، که عملکرد این نرم افزار را در درمان مطالعه کرده است، نسبت به این فرض که هوش مصنوعی می تواند به درستی سوراخی را برای کسانی که به کمک سلامت روان نیاز دارند، جایگزین کند، هشدار می دهد، به خصوص اگر نگرانی های آنها قابل توجه باشد. برای مثال، یک ربات چت بعید است تشخیص دهد که احساسات یک فرد برای درک آن بسیار پیچیده است.
به عبارت دیگر، ChatGPT به ندرت میگوید «نمیدانم»، زیرا برای ارائه پاسخها با اطمینان و نه احتیاط ساخته شده است.
مردم باید در مورد استفاده از چت بات ها برای بیان احساسات خود به طور منظم محتاط باشند. وارد میافزاید: «جنبههای ظریف ارتباط انسانی، مانند لمس دست یا دانستن اینکه چه زمانی صحبت کنیم و چه زمانی گوش کنیم، ممکن است در دنیایی که چت رباتهای هوش مصنوعی را راهحلی برای تنهایی انسان میداند، از بین برود.
این می تواند منجر به مشکلات بیشتر از آنچه فکر می کنیم در حال حل آن هستیم. در حال حاضر، آنها برای استعدادهای عاطفی خود بیشتر قابل اعتماد هستند تا دانش آنها از حقایق.
همه را بخوانید آخرین خبرها، اخبار پرطرفدار، اخبار کریکت، اخبار بالیوود،
اخبار هند و اخبار سرگرمی اینجا. ما را در فیسبوک دنبال کنید، توییتر و اینستاگرام