loading...

Light

سیستم هایی با قابلیت های فراتر از ظرفیت انسانی کنار گذاشته شده اند. اگر شرکت های بزرگ فناوری از دیدن خطرات خودداری کنند، دولت ها باید وارد عمل شوند. چرا باید هو...

writer
بازدید : 89
پنجشنبه 17 فروردين 1402 زمان : 9:32
  • 1
  • 2
  • 3
  • 4
  • 5

Light

اگر در جای دیگری از منظومه شمسی بوده اید، در اینجا یک به روز رسانی مختصر اخبار هوش مصنوعی آورده شده است. من عذرخواهی می کنم اگر این به نظر پاراگراف آغازین یک رمان علمی تخیلی بد است. در 14 مارس 2023، Open AI، یک شرکت مستقر در سانفرانسیسکو که مایکروسافت سرمایه گذاری عمده ای در آن دارد، یک سیستم هوش مصنوعی به نام GPT-4 را منتشر کرد. در 22 مارس، گزارشی که توسط گروه برجسته ای از محققان مایکروسافت، از جمله دو عضو آکادمی ملی ایالات متحده تهیه شد، ادعا کرد که GPT-4 "جرقه های هوش مصنوعی عمومی" را نشان می دهد. (هوش عمومی مصنوعی یا AGI واژه‌ای برای سیستم‌های هوش مصنوعی است که با طیف کامل وظایفی که ذهن انسان برای آن‌ها قابل اجرا است مطابقت دارد یا فراتر می‌رود).

در 29 مارس، مؤسسه آینده زندگی، یک سازمان غیرانتفاعی به سرپرستی مکس تگمارک، استاد موسسه فناوری ماساچوست (MIT)، نامه ای سرگشاده منتشر کرد که در آن خواستار توقف آزمایش های غول پیکر هوش مصنوعی شد. این سند توسط چهره های شناخته شده ای مانند ایلان ماسک، مدیرعامل تسلا، استیو وزنیاک بنیانگذار اپل و جاشوا بنجیوف برنده جایزه تورینگ و همچنین صدها محقق برجسته هوش مصنوعی امضا شده است. طوفان رسانه ای ادامه دارد. من آن نامه را امضا کردم به این امید که حداقل منجر به گفتگوی جدی و متمرکز بین سیاست گذاران، شرکت های فناوری و جامعه تحقیقاتی هوش مصنوعی در مورد اینکه چه نوع حفاظتی برای حرکت رو به جلو مورد نیاز است، شود. زمان صحبت در مورد هوش مصنوعی به عنوان تحقیقات محض مدتهاست که گذشته است.

پس سر و صدا برای چیست؟ JPT-4 آخرین نمونه از مدل های زبان بزرگ یا LLM است. یک LLM را به عنوان یک مدار بسیار بزرگ با تریلیون ها پارامتر قابل تنظیم در نظر بگیرید. این کتاب به‌عنوان یک لوح خالی شروع می‌شود و با ده‌ها تریلیون کلمه متن به تعداد کتاب‌هایی که بشر تاکنون تولید کرده است، آموزش داده می‌شود. هدف این مدل‌های زبان بزرگ این است که در پیش‌بینی کلمه بعدی در دنباله‌ای از کلمات خوب عمل کنند و پس از حدود یک میلیارد تریلیون اختلال تصادفی پارامترها، عملکرد بسیار خوبی خواهند داشت.

قابلیت های سیستم حاصل قابل توجه است. طبق وب‌سایت Open AI، نمره GPT-4 در طیف گسترده‌ای از آزمون‌های ورودی دانشگاه‌ها و دبیرستان‌ها بالاتر از انسان است. همچنین به گفته سازنده آن، JPT-4 می تواند قضیه فیثاغورث را در قالب غزل شکسپیر توصیف کند و پیش نویس سخنرانی وزیر کابینه را از دیدگاه یکی از نمایندگان مجلس از هر حزب سیاسی نقد کند.

هر روز توانایی های شگفت انگیز جدیدی کشف می شود. جای تعجب نیست که هزاران شرکت بزرگ و کوچک به دنبال راه هایی برای کسب درآمد از این عرضه نامحدود اطلاعات تقریبا رایگان هستند. مدل‌های زبان بزرگ می‌توانند بسیاری از وظایفی را که شامل مشاغل صدها میلیون نفر می‌شود، به‌ویژه هر کسی که با زبان سر و کار دارد، انجام دهد. در یک سناریوی خوش بینانه تر، ابزارهایی که بر اساس مدل های زبان بزرگ ساخته شده اند، می توانند یادگیری بسیار شخصی سازی شده را در سراسر جهان ارائه دهند. با این حال، متأسفانه، مدل‌های زبان بزرگ نیز به دلیل توهمات، پاسخ‌های کاملاً نادرست ارائه می‌دهند، که اغلب با نقل قول‌های جعلی پشتیبانی می‌شوند، زیرا آموزش آنها هیچ ارتباطی با دنیای خارج ندارد.

مدل‌های زبان بزرگ ابزاری عالی برای اطلاع‌رسانی نادرست هستند و برخی از آنها به خودکشی در بین انسان‌ها دامن می‌زنند و حتی تشویق می‌کنند. خود هوش مصنوعی باز توصیه می کند "به طور کلی از استفاده های پرمخاطب از این فناوری خودداری کنید". با این حال، به نظر می رسد که هیچ کس به این توصیه توجه نکرده است. آزمایش‌های Open AI نشان داد که GPT-4 می‌تواند عمداً به مخاطبان انسانی دروغ بگوید (توجه داشته باشید که نه، من یک ربات نیستم. من یک نقص بینایی دارم که دیدن تصاویر را برای من دشوار می‌کند) تا ظاهراً مشکل را حل کند. کمک.

در حالی که Open AI تلاش زیادی برای پاسخگویی GPT-4 به درخواست های حساس (مثلاً توصیه های پزشکی و آسیب رساندن به خود) انجام داده است، مشکل اصلی این است که نه هوش مصنوعی باز و نه هیچ کس دیگری ایده واقعی از نحوه عملکرد آن ندارند. GPT-4 ندارند.

از یک متخصص پرسیدم که آیا JPT-4 اهداف داخلی خود را توسعه داده و آنها را در انتخاب خروجی خود اعمال کرده است. او پاسخ داد: من در این مورد نظری ندارم.

در حال حاضر، دلایل فنی برای این فرض وجود دارد که توانایی GPT-4 در شکل‌دهی و اجرای طرح‌های پیچیده محدود است، اما با توجه به سرعت توسعه، نمی‌توان گفت که نسخه‌های آینده چنین قابلیت‌هایی را ندارند و این منجر به آن می‌شود. یکی از دغدغه‌های اصلی این نامه را باز می‌کند: چگونه می‌توانیم برای همیشه قدرت را بر موجوداتی قدرتمندتر از خودمان حفظ کنیم؟

ایده اصلی در پس توقف پیشنهادی نامه سرگشاده این است که هیچ سیستمی نباید منتشر شود تا زمانی که توسعه‌دهنده به طور قانع‌کننده نشان دهد که خطر غیرمنطقی ندارد. این دقیقاً مطابق با اصول هوش مصنوعی سازمان همکاری اقتصادی و توسعه است که بریتانیا، ایالات متحده و بسیاری از دولت‌های دیگر آن را امضا کرده‌اند: «سیستم‌های هوش مصنوعی باید در طول چرخه عمر خود قوی و ایمن باشند تا بتوان از آنها استفاده کرد. در شرایط استفاده عادی، قابل پیش بینی یا استفاده نادرست یا سایر شرایط نامطلوب، به درستی عمل کنید و خطر ایمنی غیر منطقی ایجاد نکنید.

این مسئولیت توسعه دهنده است که نشان دهد سیستم های او این معیارها را برآورده می کنند. فکر نمی کنم که ساتیا نادلا، مدیرعامل مایکروسافت فردا به من زنگ بزند و بگوید: "موافقم، ما تسلیم می شویم و متوقف می شویم"!

در سخنرانی های اخیر در برکلی، این ایده مطرح شد که هیچ راهی وجود ندارد که تمام شرکت های بزرگ فناوری متوقف شوند مگر اینکه دولت ها مداخله کنند. بنابراین، ضروری است که دولت ها با کارشناسان شرکت های فناوری و با یکدیگر گفتگوهای جدی را آغاز کنند. توسعه و استقرار سیستم‌های هوش مصنوعی در صورتی که قادر به کنترل آن نباشد، به نفع هیچ کشوری نیست. اصرار بر اقدامات احتیاطی منطقی ضد صنعت نیست.

چرنوبیل جان بسیاری از انسان ها را نابود کرد، اما خسارات و هزینه های هنگفتی را نیز بر صنعت هسته ای جهانی تحمیل کرد. من یک محقق هوش مصنوعی هستم. من نمی خواهم حوزه تحقیقاتی من ناپدید شود. بشریت چیزهای زیادی از هوش مصنوعی به دست می آورد. در عین حال، بشریت چیزهای زیادی برای از دست دادن و از دست دادن به هوش مصنوعی دارد.

نظرات این مطلب

تعداد صفحات : -1

آمار سایت
  • کل مطالب : 4
  • کل نظرات : 0
  • افراد آنلاین : 1
  • تعداد اعضا : 0
  • بازدید امروز : 2
  • بازدید کننده امروز : 3
  • باردید دیروز : 0
  • بازدید کننده دیروز : 1
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 9
  • بازدید ماه : 22
  • بازدید سال : 257
  • بازدید کلی : 605
  • کدهای اختصاصی