Web Analytics Made Easy - Statcounter

به گزارش خبرگزاری صداوسیما، سی ان بی سی نوشت: توهمات هوش مصنوعی زمانی اتفاق می‌افتد که مدل‌های هوش مصنوعی مانند «چت جی پی تی» یا «بارد» به طور کامل اطلاعات را تولید می‌کنند. شرکت OpenAI تحت حمایت مایکروسافت، یک مقاله تحقیقاتی جدید با ایده‌هایی در مورد چگونگی کمک به جلوگیری از این توهمات منتشر کرد.

OpenAI اعلام کرده که با روشی جدیدتر برای آموزش مدل‌های هوش مصنوعی، مقابله با توهمات این فناوری را در پیش گرفته است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

این تحقیق زمانی انجام می‌شود که اطلاعات نادرست ناشی از سیستم‌های هوش مصنوعی در بحبوحه رونق این فناوری و منتهی به انتخابات ریاست جمهوری آمریکا در سال ۲۰۲۴، داغ‌تر از همیشه مورد بحث قرار می‌گیرد.

OpenAI در سال گذشته با انتشار «چت جی پی تی»، چت‌ربات خود با GPT-3 و GPT-4، رونق هوش مصنوعی مولد را تسریع کرد و در عرض دو ماه از ۱۰۰ میلیون کاربر ماهانه فراتر رفت و طبق گزارش‌ها، رکورد سریع‌ترین برنامه در حال رشد را ثبت کرد. تا به امروز مایکروسافت بیش از ۱۳ میلیارد دلار در OpenAI سرمایه‌گذاری کرده و ارزش این استارت‌اپ تقریباً به ۲۹ میلیارد دلار رسیده است.

توهمات هوش مصنوعی زمانی اتفاق می‌افتد که مدل‌هایی مانند «چت جی پی تی» OpenAI یا «بارد» Google به طور کامل اطلاعات را جعل و طوری رفتار می‌کنند که گویی حقایق را افشا کرده‌اند. مثلا گوگل در ماه فوریه در ویدئوی تبلیغاتی خود برای ربات‌چت «بارد»، ادعایی نادرست در مورد تلسکوپ فضایی جیمز وب منتشر کرد یا اخیراً، با استفاده از «چت جی پی تی» موارد جعلی در پرونده دادگاه فدرال نیویورک درج شد که همین مسئله ممکن است وکلای آن را با جریمه مواجه کند.   محققان در این گزارش نوشتند: حتی مدل‌های پیشرفته نیز مستعد تولید اطلاعات نادرست هستند، آن‌ها تمایل به «ابداع حقایق» را در لحظات عدم اطمینان نشان می‌دهند. این توهمات به ویژه در حوزه‌هایی که نیاز به استدلال چند مرحله‌ای دارند مشکل‌ساز است، زیرا یک خطای منطقی برای منحرف کردن راه‌حل بسیار بزرگ‌تر کافی است.   استراتژی جدید OpenAI برای مبارزه با ساختگی‌ها این است که به مدل‌های هوش مصنوعی آموزش دهد که هنگام رسیدن به یک نتیجه نهایی صحیح با استدلال درست، به خود پاداش دهند. به گفته محققان، این رویکرد در مقابل «نظارت بر نتیجه»، «نظارت بر فرآیند» نامیده می‌شود و به گفته محققان، می‌تواند به هوش مصنوعیِ قابل توضیحِ بهتری منجر شود، زیرا این استراتژی مدل‌ها را تشویق می‌کند تا بیش‌تر از رویکرد فکر زنجیره‌ایِ انسان‌مانند پیروی کنند.     «کارل کوب» از محققان OpenAI، در مصاحبه با «سی ان بی سی» گفت: تشخیص و کاهش اشتباهات منطقی یا توهمات یک مدل، گامی حیاتی در جهت ایجاد AGI همسو (یا هوش عمومی مصنوعی) است. انگیزه این تحقیق، توانمندتر کردن مدل‌ها در حل مسائل استدلالیِ چالش برانگیز است.   «بن وینترز» مشاور ارشد مرکز اطلاعات حریم خصوصی الکترونیکی و رهبر پروژه هوش مصنوعی و حقوق بشر درباره این موضوع ابراز تردید کرده و گفته که باید مجموعه داده‌های کامل و نمونه‌های موجود را بررسی کند. «وینترز» افزود: فکر نمی‌کنم که این اقدام به تنهایی نگرانی‌های مربوط به انتشار اطلاعات نادرست و کسب نتایج نادرست را کاهش دهد.    وی همچنین اضافه کرد: قطعاً مهم است که آیا مسئولان OpenAI قصد دارند هر چیزی را که از طریق تحقیقات خود یافته‌اند پیاده‌سازی کنند یا نه. اگر این‌طور نباشد، سؤالات نسبتاً جدی در مورد آنچه که آن‌ها مایل به انتشار عمومی هستند ایجاد می‌شود.    از آنجایی که مشخص نیست مقاله OpenAI در قالب دیگری بررسی شده یا مورد بازبینی قرار گرفته است، «سورش ونکاتاسوبرامانیان» مدیر مرکز مسئولیت فناوری در دانشگاه «براون» به «سی ان بی سی» گفت که او این تحقیق را بیش از هر چیز دیگری، یک مشاهده اولیه می‌داند.   «ونکاتاسوبرامانیان» افزود: در این دنیا، نتایج زیادی وجود دارد که به‌طور منظم به دست می‌آیند، اما به دلیل بی‌ثباتی کلی در نحوه عملکرد مدل‌های زبانی بزرگ (LLM ها)، آنچه ممکن است در یک محیط، مدل و زمینه کار کند ممکن است در شرایط، مدل و زمینه‌ای دیگر کار نکند.    از سویی، «کارل کوب» از محققان OpenAI گفت: این شرکت احتمالاً مقاله را برای بررسی به کنفرانس آینده ارسال خواهد کرد. OpenAI به درخواستی برای اظهار نظر در مورد اینکه چه زمانی این شرکت قصد دارد استراتژی جدید را در «چت جی پی تی» و سایر محصولاتش پیاده‌سازی کند، پاسخ نداد.   «سارا مایرز وست» مدیرعامل موسسه «AI Now» در همین زمینه به «سی ان بی سی» گفت: مطمئناً از شرکت‌هایی که سعی می‌کنند با توسعه سیستم‌هایشان کاری کنند تا این نوع خطا‌ها را کاهش دهند استقبال می‌شود.   وی افزود: OpenAI مجموعه داده کوچکی از بازخورد‌ها در سطح انسانی را با این مقاله منتشر کرده، اما جزئیات اساسی در مورد داده‌های مورد استفاده برای آموزش و آزمایش GPT-4 ارائه نکرده است. بنابراین، هنوز ابهامات زیادی وجود دارد که تلاش‌ها برای پاسخگویی معنادار در زمینه هوش مصنوعی را به چالش می‌کشد، چرا که این سیستم‌ها به طور مستقیم بر مردم تأثیر می‌گذارند.

منبع: خبرگزاری صدا و سیما

کلیدواژه: هوش مصنوعی چت جی پی تی گوگل هوش مصنوعی چت جی پی تی سی ان بی سی مدل ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.iribnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری صدا و سیما» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۸۸۴۳۴۶ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

امیر جدیدی بازیگر یک پروژه بین المللی شد

آفتاب‌‌نیوز :

کمپانی فرانس تی‌وی حق پخش جهانی این فیلم را پیش از تولیدش خریده و احتمالا در جشنواره کن امسال به فروش آن به کشور‌های مختلف بپردازد. رومالد بولانژه کارگردان آثاری مثل «روی خط» با بازی مل گیبسون کارگردانی این اثر را برعهده داردو این فیلم محصول مشترک فرانسه و بریتانیاست. داون مک دنیل و فیلیپ د لیون هم نویسندگی این اثر را برعهده دارند.

بهرامی درباره این فیلم به ددلاین گفته: «افراد زیادی به من گفته‌اند که سرگذشتم بسیار سینمایی است، اما در واقع باعث افتخار است که فیلم بلندی بر اساس زندگی من ساخته می‌شود. امیر جدیدی بازیگری استثنائی است. او واقعاً برای نقشش تغییر شکل پیدا می‌کند. اینکه او یک بازیکن نیمه-حرفه‌ای تنیس است یکی از آن خوش‌اقبالی‌های بزرگ در این پروژه است.»

منبع: سایت برترینها

دیگر خبرها

  • توهمات یک ذهن افراطی
  • ویژگی جدیدی که به ChatGPT اضافه شد | روبات هوش مصنوعی به چه چیزی مجهز شد؟
  • ناکامی متا در مقابله با اطلاعات نادرست پیش از انتخابات
  • قرارداد همکاری اوپن‌ای‌آی با فایننشال تایمز برای آموزش مدل‌های هوش مصنوعی
  • اطلاعات نادرست چت جی پی تی در اتریش دردسرساز شد
  • تحقیقات اتحادیه اروپا از متا بر سر کنترل اطلاعات غلط
  • شکایت علیه ChatGPT به دلیل ناتوانی در تصحیح خطاها
  • دولت اوکراین به دنبال راه حل های جدید برای مقابله با تهاجم روسیه
  • امیر جدیدی بازیگر یک پروژه بین المللی شد
  • هوش مصنوعی ChatGPT دادگاهی می‌شود!