اگر در جای دیگری از منظومه شمسی بوده اید، در اینجا یک به روز رسانی مختصر اخبار هوش مصنوعی آورده شده است. من عذرخواهی می کنم اگر این به نظر پاراگراف آغازین یک رمان علمی تخیلی بد است. در 14 مارس 2023، Open AI، یک شرکت مستقر در سانفرانسیسکو که مایکروسافت سرمایه گذاری عمده ای در آن دارد، یک سیستم هوش مصنوعی به نام GPT-4 را منتشر کرد. در 22 مارس، گزارشی که توسط گروه برجسته ای از محققان مایکروسافت، از جمله دو عضو آکادمی ملی ایالات متحده تهیه شد، ادعا کرد که GPT-4 "جرقه های هوش مصنوعی عمومی" را نشان می دهد. (هوش عمومی مصنوعی یا AGI واژهای برای سیستمهای هوش مصنوعی است که با طیف کامل وظایفی که ذهن انسان برای آنها قابل اجرا است مطابقت دارد یا فراتر میرود).
در 29 مارس، مؤسسه آینده زندگی، یک سازمان غیرانتفاعی به سرپرستی مکس تگمارک، استاد موسسه فناوری ماساچوست (MIT)، نامه ای سرگشاده منتشر کرد که در آن خواستار توقف آزمایش های غول پیکر هوش مصنوعی شد. این سند توسط چهره های شناخته شده ای مانند ایلان ماسک، مدیرعامل تسلا، استیو وزنیاک بنیانگذار اپل و جاشوا بنجیوف برنده جایزه تورینگ و همچنین صدها محقق برجسته هوش مصنوعی امضا شده است. طوفان رسانه ای ادامه دارد. من آن نامه را امضا کردم به این امید که حداقل منجر به گفتگوی جدی و متمرکز بین سیاست گذاران، شرکت های فناوری و جامعه تحقیقاتی هوش مصنوعی در مورد اینکه چه نوع حفاظتی برای حرکت رو به جلو مورد نیاز است، شود. زمان صحبت در مورد هوش مصنوعی به عنوان تحقیقات محض مدتهاست که گذشته است.
پس سر و صدا برای چیست؟ JPT-4 آخرین نمونه از مدل های زبان بزرگ یا LLM است. یک LLM را به عنوان یک مدار بسیار بزرگ با تریلیون ها پارامتر قابل تنظیم در نظر بگیرید. این کتاب بهعنوان یک لوح خالی شروع میشود و با دهها تریلیون کلمه متن به تعداد کتابهایی که بشر تاکنون تولید کرده است، آموزش داده میشود. هدف این مدلهای زبان بزرگ این است که در پیشبینی کلمه بعدی در دنبالهای از کلمات خوب عمل کنند و پس از حدود یک میلیارد تریلیون اختلال تصادفی پارامترها، عملکرد بسیار خوبی خواهند داشت.
قابلیت های سیستم حاصل قابل توجه است. طبق وبسایت Open AI، نمره GPT-4 در طیف گستردهای از آزمونهای ورودی دانشگاهها و دبیرستانها بالاتر از انسان است. همچنین به گفته سازنده آن، JPT-4 می تواند قضیه فیثاغورث را در قالب غزل شکسپیر توصیف کند و پیش نویس سخنرانی وزیر کابینه را از دیدگاه یکی از نمایندگان مجلس از هر حزب سیاسی نقد کند.
هر روز توانایی های شگفت انگیز جدیدی کشف می شود. جای تعجب نیست که هزاران شرکت بزرگ و کوچک به دنبال راه هایی برای کسب درآمد از این عرضه نامحدود اطلاعات تقریبا رایگان هستند. مدلهای زبان بزرگ میتوانند بسیاری از وظایفی را که شامل مشاغل صدها میلیون نفر میشود، بهویژه هر کسی که با زبان سر و کار دارد، انجام دهد. در یک سناریوی خوش بینانه تر، ابزارهایی که بر اساس مدل های زبان بزرگ ساخته شده اند، می توانند یادگیری بسیار شخصی سازی شده را در سراسر جهان ارائه دهند. با این حال، متأسفانه، مدلهای زبان بزرگ نیز به دلیل توهمات، پاسخهای کاملاً نادرست ارائه میدهند، که اغلب با نقل قولهای جعلی پشتیبانی میشوند، زیرا آموزش آنها هیچ ارتباطی با دنیای خارج ندارد.
مدلهای زبان بزرگ ابزاری عالی برای اطلاعرسانی نادرست هستند و برخی از آنها به خودکشی در بین انسانها دامن میزنند و حتی تشویق میکنند. خود هوش مصنوعی باز توصیه می کند "به طور کلی از استفاده های پرمخاطب از این فناوری خودداری کنید". با این حال، به نظر می رسد که هیچ کس به این توصیه توجه نکرده است. آزمایشهای Open AI نشان داد که GPT-4 میتواند عمداً به مخاطبان انسانی دروغ بگوید (توجه داشته باشید که نه، من یک ربات نیستم. من یک نقص بینایی دارم که دیدن تصاویر را برای من دشوار میکند) تا ظاهراً مشکل را حل کند. کمک.
در حالی که Open AI تلاش زیادی برای پاسخگویی GPT-4 به درخواست های حساس (مثلاً توصیه های پزشکی و آسیب رساندن به خود) انجام داده است، مشکل اصلی این است که نه هوش مصنوعی باز و نه هیچ کس دیگری ایده واقعی از نحوه عملکرد آن ندارند. GPT-4 ندارند.
از یک متخصص پرسیدم که آیا JPT-4 اهداف داخلی خود را توسعه داده و آنها را در انتخاب خروجی خود اعمال کرده است. او پاسخ داد: من در این مورد نظری ندارم.
در حال حاضر، دلایل فنی برای این فرض وجود دارد که توانایی GPT-4 در شکلدهی و اجرای طرحهای پیچیده محدود است، اما با توجه به سرعت توسعه، نمیتوان گفت که نسخههای آینده چنین قابلیتهایی را ندارند و این منجر به آن میشود. یکی از دغدغههای اصلی این نامه را باز میکند: چگونه میتوانیم برای همیشه قدرت را بر موجوداتی قدرتمندتر از خودمان حفظ کنیم؟
ایده اصلی در پس توقف پیشنهادی نامه سرگشاده این است که هیچ سیستمی نباید منتشر شود تا زمانی که توسعهدهنده به طور قانعکننده نشان دهد که خطر غیرمنطقی ندارد. این دقیقاً مطابق با اصول هوش مصنوعی سازمان همکاری اقتصادی و توسعه است که بریتانیا، ایالات متحده و بسیاری از دولتهای دیگر آن را امضا کردهاند: «سیستمهای هوش مصنوعی باید در طول چرخه عمر خود قوی و ایمن باشند تا بتوان از آنها استفاده کرد. در شرایط استفاده عادی، قابل پیش بینی یا استفاده نادرست یا سایر شرایط نامطلوب، به درستی عمل کنید و خطر ایمنی غیر منطقی ایجاد نکنید.
این مسئولیت توسعه دهنده است که نشان دهد سیستم های او این معیارها را برآورده می کنند. فکر نمی کنم که ساتیا نادلا، مدیرعامل مایکروسافت فردا به من زنگ بزند و بگوید: "موافقم، ما تسلیم می شویم و متوقف می شویم"!
در سخنرانی های اخیر در برکلی، این ایده مطرح شد که هیچ راهی وجود ندارد که تمام شرکت های بزرگ فناوری متوقف شوند مگر اینکه دولت ها مداخله کنند. بنابراین، ضروری است که دولت ها با کارشناسان شرکت های فناوری و با یکدیگر گفتگوهای جدی را آغاز کنند. توسعه و استقرار سیستمهای هوش مصنوعی در صورتی که قادر به کنترل آن نباشد، به نفع هیچ کشوری نیست. اصرار بر اقدامات احتیاطی منطقی ضد صنعت نیست.
چرنوبیل جان بسیاری از انسان ها را نابود کرد، اما خسارات و هزینه های هنگفتی را نیز بر صنعت هسته ای جهانی تحمیل کرد. من یک محقق هوش مصنوعی هستم. من نمی خواهم حوزه تحقیقاتی من ناپدید شود. بشریت چیزهای زیادی از هوش مصنوعی به دست می آورد. در عین حال، بشریت چیزهای زیادی برای از دست دادن و از دست دادن به هوش مصنوعی دارد.
5 روش دانلود اهنگ از اسپاتیفای spotify
مقاومت بلوک هبلکس در مقابل یخ بندان
گوشه ای از عملکرد ابراهیم رئیسی و وزرایش!