آنچه که هوش مصنوعی جدید GPT-4 می تواند انجام دهد.
فرایندی سودمند یا گاو نر در یک فروشگاه چینی!!
هوش مصنوعی از عروسک های بازی تا کمک به انسان در تولیدات و سلامت تا زیان های آن بر جسم و روح انسان- قسمت چهل و نه
ساختن مدل از هر چیز، همیشه آسان است اما تبدیل آن به یک محصول واقعی و سودمند در دراز مدت، سخت است.
OpenAI
به تازگی نسخه ی به روز شده ی برنامه ی هوش مصنوعی تولید متن خود را منتشر کرده است. در اینجا GPT-4 برای بهبود نسل قبلی خود ارائه شده است
شرکت تحقیقاتی فناوری OpenAI به تازگی نسخه ی به روز شده ی برنامه ی هوش مصنوعی تولید متن خود به نام GPT-4 را منتشر کرده است و برخی از توانایی های جدید این مدل زبان را به نمایش گذاشته است. GPT-4 می تواند متنی با صدایی طبیعی تر تولید کند و مشکلات را با دقت بیشتری نسبت به نسخه ی قبلی خود حل کند. همچنین می تواند تصاویر را علاوه بر متن، پردازش کند. اما هوش مصنوعی همچنان در برابر برخی از همان مشکلاتی- که مدلهای قبلی GPT را درگیر میکرد- آسیبپذیر است:
نمایش تعصب و جانبداری، گذر از حدود حفاظتی برای جلوگیری از گفتن چیزهای توهین آمیز یا خطرناک و «توهم»، یا با اطمینان ساختن دروغهایی که در دادههای آموزشی آن، یافت نمیشود.
سیستم های سخنگو بیش از مهارت خود برای صحبت کردن باید بتوانند درک درستی از محیط اطراف داشته باشند و واکنش آنها به محیط، خالی از عاطفه های مرسوم میان مردم نباشد. هوش معمول به نام ای کیو هرچند ممکن است تلاشش، یافتن بهترین راه حل عقلی ممکن باشد، در برخورد احساسی و یافتن راه گریز عاطفی- که در بسیاری چالش های زندگی انسانی راه گشاتر از عقل های هوشمند معمول است- ناموفق تر عمل میکند.
هوش مصنوعی هرچند در محاسبات ریاضی و حافظه، قدرتمندتر از هوش انسانی عمل میکند، در برخورد عاطفی ناتوان است. البته نگاه یک جانبه و تعمیم درمان همه چالش ها در قالب پنجره ای بسته، مشکل علم امروز است و در روزگاری که تحریک عاطفه و فریب حاکمان امروز با استفاده از روح و عطوفت دل مردم ساده لوح است کنار گذاشتن عاطفه در گام نخست، خیلی هم زیانبار نیست.
سام آلتمن، مدیر عامل OpenAI، مدل GPT4 را به عنوان تواناترین و همسوترین مدل تا به امروز توصیف کرد. (aligned به این معنی است که برای پیروی از اخلاق انسانی طراحی شده است.) اما او در توییت نوشت: هنوز دارای نقص است، هنوز محدود است، و هنوز هم در اولین استفاده، تاثیرگذارتر از وقتی است که زمان بیشتری را با آن سپری می کنید.(دستاوردهای بشری در مواجهه ی اول، بسیار جالب می نماید ولی در گذر زمان نقص های آن هویدا میشود. مدل های هوش مصنوعی هم از این قانون، استثنا نیست. توان محاسبات دقیق در سیستم های راداری و موشک پرانی، هرچند تلفات ناخواسته ی افرادی را که مورد هدف این سیستم ها نیستند کاهش میدهد ولی از سوی دیگر در زدن هدف های مورد نظر، موفق عمل میکنند و اگر در اختیار قدرت های شرور قرار بگیرد میتواند به پیروزی نظامی این قدرت ها بینجامد. با وجود این نتایج، سیستم های دقیق محاسباتی و تصویر گری این سیستم ها میتواند فریبکاری و دروغگویی های رایج را در درگیری های میان کشورها برملا کند. سیستم های هوشمند مصنوعی، امروز جای کمی برای فریب های معمول در سیاست باقی میگذارد. پخش اخبار و اطلاعات در سطح جهانی- آنگونه که هست و نه آنطور که توسط زورمندان و صاحبان قدرت بافته میشود- دستاورد بزرگ سیستم جهانی اینترنت است.
طبیعتا وقتی مردم حقیقت را آنگونه که هست و نه آن گونه که توسط سیاستمداران بافته میشود بببیند، در اعتماد به حاکمان و انتخاب سیاستمداران و اصلاح ساختار قدرت به شکل مثبت، تاثیر گذار خواهند بود.)
شاید مهم ترین تغییر این باشد که GPT-4 چند وجهی است، به این معنی که هم با متن و هم با تصاویر کار می کند. اگرچه نمیتواند عکسهایی را تولید کند (آنطور که مدلهای هوش مصنوعی مولد مانند DALL-E و Stable Diffusion میتوانند ورودیهای بصری دریافتی را پردازش کرده و به آنها پاسخ دهد.)
آنت وی، دانشیار زبان انگلیسی در دانشگاه پیتسبورگ که در مورد تقاطع محاسبات و نوشتن، مطالعه می کند، نمایشی را تماشا کرد که در آن به مدل جدید گفته شد مشخص کند چه چیزی در یک تصویر طنز، خنده دار است. توانایی انجام این کار به معنای «درک زمینه در تصویر و درک چگونگی و چرایی یک تصویر و ارتباط آن با درک اجتماعی از زبان است.
ChatGPT
قادر به انجام این کار نبود.
دکتر سید سلمان فاطمی . نورولوژیست, [3/25/2023 12:26 PM]
دستگاهی با توانایی تجزیه و تحلیل و سپس توصیف تصاویر می تواند برای افرادی که دارای اختلال بینایی یا نابینا هستند بسیار ارزشمند باشد. به عنوان مثال، یک برنامه تلفن همراه به نام Be My Eyes میتواند اشیاء اطراف کاربر را توصیف کند و به افرادی که دید ضعیف یا کم بینایی دارند کمک کند تا محیط اطراف خود را تفسیر کنند. این اپلیکیشن اخیراً GPT-4 را در یک «داوطلب مجازی» قرار داده است که طبق بیانیهای در وبسایت OpenAI، «میتواند همان سطح زمینه و درک یک داوطلب انسانی را ایجاد کند».
حتی تجزیه و تحلیل تصویر GPT-4 فراتر از توصیف تصویر است. در همان نمایشی که وی تماشا کرد، یک نماینده OpenAI تصویری از یک وب سایت ساده، ترسیم کرد و نقشه را به GPT-4 داد. سپس از مدل خواسته شد تا کد مورد نیاز برای تولید چنین وب سایتی را بنویسد - و این کار را کرد و اساساً شبیه تصویر بود.(کمکی دیگر به نابینایان در سایه ی پیشرفت های هوش مصنوعی!
برای بررسی بیشتر توصیه میشود مقالات مربوط به تولید اورگانوئید از شبکیه و استفاده از سلولهای بنیادی در درمان بیماری ها قسمت ششم و یا دوربین هایی که به عنوان چشم مصنوعی، اطلاعات را به کورتکس بینایی مغز میفرستد در همین کانال مراجعه شود.)
جاناتان می، دانشیار پژوهشی در دانشگاه کالیفرنیای جنوبی میگوید: «این بسیار بسیار ساده بود، اما بسیار خوب کار کرد
حتی بدون قابلیت چندوجهی خود، برنامه ی جدید در کارهایی که نیاز به استدلال و حل مسئله دارند، بهتر از پیشینیان خود عمل می کند. OpenAI می گوید که هم GPT-3.5 و هم GPT-4 را از طریق تست های مختلف طراحی شده برای انسان ها، از جمله شبیه سازی آزمون وکالت، آزمون های SAT و Advanced Placement برای دانش آموزان دبیرستانی، GRE برای فارغ التحصیلان کالج و حتی یک زوج، اجرا کرده است. GPT-4 در بسیاری از این معیارها نمرات سطح انسانی را به دست آورد و به طور مداوم از مدل قبلی خود بهتر عمل کرد، اگرچه همه چیز را به دست نیاورد: برای نمونه، در امتحانات زبان و ادبیات انگلیسی، ضعیف عمل کرد. با این حال، توانایی گسترده ی حل مسئله می تواند برای هر تعداد از برنامه های کاربردی دنیای واقعی اعمال شود، مانند مدیریت یک برنامه ی زمان بندی پیچیده، یافتن خطاها در یک بلوک کد،توضیح تفاوت های دستوری برای زبان آموزان خارجی یا شناسایی آسیب پذیری های امنیتی.
علاوه بر این، OpenAI ادعا میکند که مدل جدید میتواند بلوکهای طولانیتر متن را تفسیر و تولید کند: بیش از 25000 کلمه در یک زمان. اگرچه مدلهای قبلی برای کاربردهای طولانی نیز مورد استفاده قرار میگرفتند، اما اغلب اطلاعاتی را- که درباره آن صحبت میکردند- از دست میدادند.
این شرکت خلاقیت مدل جدید را که به عنوان توانایی آن برای تولید انواع مختلف محتوای هنری در سبک های خاص توصیف می شود، تبلیغ می کند. وی در نمایشی با مقایسه نحوه ی تقلید GPT-3.5 و GPT-4 از سبک نویسنده ی آرژانتینی خورخه لوئیس بورخس در ترجمه انگلیسی، خاطرنشان کرد که مدل جدیدتر تلاش دقیق تری داشت.
او میگوید: «برای قضاوت در مورد زمینه باید به اندازه ی کافی اطلاعات داشته باشید. ممکن است یک دانشجوی لیسانس نفهمد که چرا بهتر است، اما من یک استاد زبان انگلیسی هستم... اگر شما آن را از حوزه ی دانش خود ببینید، میفهمید در حوزه دانش خودتان تاثیرگذار است.
می همچنین خلاقیت این مدل را خودش آزمایش کرده است. او این کار را امتحان کرد: به آن دستور داد تا یک backronym ایجاد کند (عبارت مخفف با شروع کلمات). در این مورد، می برای آزمایشگاه خود یک نام زیبا با حرف اول عبارت ها خواست که به طور دقیق زمینه تحقیقات او را توصیف کند.
GPT-3.5
نتوانست یک برچسب مرتبط ایجاد کند، اما GPT-4 موفق شد. او میگوید: «درک محاسباتی و تبدیل تجزیه و تحلیل زبان بیانی، پل زدن NLP، هوش مصنوعی و آموزش ماشینی» ارائه شد. آموزش ماشین عالی نیست. بخش هوش به این معنی است که یک حرف اضافی در آن وجود دارد. اما صادقانه بگویم، این خیلی خوب است( نام واقعی آزمایشگاه او CUTE LAB NAME یا مرکز تکنیک های مفید برای تقویت کاربردهای زبان بر اساس شواهد طبیعی و معنی دار Center for Useful Techniques Enhancing Language Applications Based on Natural And Meaningful Evidence).
در آزمایش دیگری، این مدل محدودیت های خلاقیت خود را نشان داد. هنگامی که می، از آن خواست تا نوع خاصی از غزل بنویسد، او فرمی را درخواست کرد- که توسط شاعر ایتالیایی پترارک استفاده می شد- مدل که با آن ساختار شاعرانه آشنا نبود، به شکل پیش فرض غزل مورد علاقه شکسپیر، روی آورد.
البته رفع این مشکل خاص نسبتاً ساده خواهد بود کافی است برنامه ی سبک شعر و غزل شاعر ایتالیایی به مدل داده شود. بله GPT-4 فقط نیاز به یادگیری یک فرم شاعرانه ی اضافی دارد. در واقع، وقتی انسانها مدل را تشویق میکنند که از این طریق شکست بخورد، این به توسعه ی برنامه کمک میکند: سیستم میتواند از هر چیزی که آزمایشکنندههای غیررسمی وارد سیستم میکنند بیاموزد. GPT-4 مانند پیشینیان کمتر روان خود، در ابتدا بر روی بخش های بزرگی از داده ها آموزش داده شد و سپس این آموزش توسط آزمایش کنندگان انسانی اصلاح شد. (GPT مخفف ترانسفورماتور از پیش آموزش دیده مولد generative pretrained transformer است.)
اما OpenAI در مورد اینکه چگونه GPT-4 را بهتر از GPT-3.5 ساخته است یعنی مدلی که چت ربات محبوب ChatGPT شرکت را نیرو می دهد، مخفیانه عمل کرده است. طبق مقاله منتشر شده در کنار عرضه مدل جدید با توجه به چشم انداز رقابتی و پیامدهای ایمنی مدل ها در مقیاس بزرگ مانند GPT-4، این گزارش حاوی جزئیات بیشتری در مورد معماری (از جمله اندازه مدل)، سخت افزار، محاسبات آموزشی، ساخت مجموعه داده، روش آموزش یا موارد مشابه نیست.
” عدم شفافیت OpenAI منعکس کننده این محیط جدید هوش مصنوعی رقابتی است، GPT-4 باید با برنامه هایی مانند Bard Google و LLaMA متا رقابت کند. با این حال، این مقاله در ادامه پیشنهاد می دهد که این شرکت قصد دارد در نهایت چنین جزئیاتی را با اشخاص ثالث به اشتراک بگذارد که می توانند به ما توصیه کنند که چگونه ملاحظات رقابتی و ایمنی را ... در مقابل ارزش علمی شفافیت بیشتر، ارزیابی کنیم.
این ملاحظات ایمنی مهم هستند زیرا چت رباتهای هوشمند، توانایی ایجاد آسیب را دارند: بدون نردههای محافظ، ممکن است دستورالعملهایی را در مورد نحوه ی ساخت بمب به تروریستها ارائه کنند، پیامهای تهدیدآمیز را برای کمپین آزار و اذیت ارسال کنند یا اطلاعات نادرستی را به یک عامل خارجی- که تلاش میکند انتخابات را تحت تأثیر قرار دهد- ارائه دهند.
اگرچه OpenAI برای جلوگیری از چنین سناریوهایی محدودیت هایی را در مورد آنچه مدل های GPT خود مجاز به بیان آن هستند قرار داده است، آزمایش کنندگان مصمم، راه هایی را برای دور زدن آنها پیدا کرده اند.
گری مارکوس دانشمند و نویسنده، کمی قبل از انتشار GPT-4 به Scientific American گفت : این چیزها مانند گاو نر در یک فروشگاه چینی هستند - آنها قدرتمند اما بی پروا هستند. من فکر نمیکنم [نسخه] چهار، آن را تغییر دهد.»
و هر چه این رباتها بیشتر شبیه انسان شوند، بهتر میتوانند مردم را فریب دهند تا فکر کنند عاملی باهوش پشت صفحه ی کامپیوتر وجود دارد.
وی هشدار میدهد: «این سیستم های هوشمند از طریق زبان به خوبی [استدلال انسانی] را تقلید میکند، ما معتقدیم، در زیر کلاه، به هیچ وجه شبیه به روشی که انسانها انجام میدهند، نیست. اگر این توهم، مردم را فریب دهد تا باور کنند که یک عامل هوش مصنوعی، استدلال انسانی انجام می دهد، ممکن است راحت تر به پاسخ های آن اعتماد کنند. این یک مشکل مهم است زیرا هنوز هیچ تضمینی وجود ندارد که آن پاسخ های دقیقی باشند.
می، می گوید: «فقط به این دلیل که این مدل ها هر چیزی را می گویند، به این معنی نیست که آنچه می گویند [درست است]. پایگاه دادهای از پاسخهایی که این مدلها از آن استخراج میکنند وجود ندارد.» در عوض، سیستمهایی مانند GPT-4 یک کلمه در یک زمان پاسخ میدهند و منطقیترین کلمه بعدی توسط دادههای آموزشی آنها مشخص میشود و این دادههای آموزشی میتوانند قدیمی و بی مصرف شوند.
من معتقدم GPT-4 حتی نمی داند که GPT-4 است، ” او می گوید. من آن را پرسیدم، و گفت، نه، نه، چیزی به نام GPT-4 وجود ندارد. من GPT-3 هستم.
اکنون که این مدل، منتشر شده است، بسیاری از محققان و علاقه مندان به هوش مصنوعی فرصتی دارند تا نقاط قوت و ضعف GPT-4 را بررسی کنند. توسعه دهندگانی که می خواهند از آن در برنامه های دیگر استفاده کنند می توانند برای دسترسی درخواست دهند و هرکسی که می خواهد با این برنامه صحبت کند باید در ChatGPT Plus مشترک شود. با پرداخت 20 دلار در ماه، این برنامه ی پولی به کاربران امکان میدهد بین صحبت کردن با یک ربات چت که روی GPT-3.5 اجرا میشود و یکی که روی GPT-4 اجرا میشود، انتخاب کنند.
چنین کاوشهایی بدون شک کاربردها و نقصهای بالقوه بیشتری را در GPT-4 آشکار خواهند کرد.
دکتر سید سلمان فاطمی . نورولوژیست, [3/25/2023 12:26 PM]
مارکوس میگوید: «سوال واقعی باید این باشد که مردم دو ماه بعد، پس از شوک اولیه، چه احساسی در مورد آن خواهند داشت؟» بخشی از توصیه ی من این است: بیایید با درک اینکه قبلاً این فیلم را دیدهایم، شور و شوق اولیه خود را کاهش دهیم. ساختن مدل از هر چیز، همیشه آسان است اما تبدیل آن به یک محصول واقعی و سودمند در دراز مدت، سخت است. و اگر هنوز هم این مشکلات را داشته باشد- در مورد توهم، درک درستی از دنیای فیزیکی، دنیای پزشکی و غیره، کاربرد آن را تا حدودی محدود می کند. و باز هم به این معنی است که باید به نحوه استفاده و کاربرد آن، دقت کنید.» https://www.scientificamerican.com/article/what-the-new-gpt-4-ai-can-do/?fbclid=IwAR1HarT3h5wESrVHNSzYT044nJjI4RI4g85qgfLflDnOK8rFrk5Zuro3TDw
آدرس مطب : اصفهان ، خیابان آمادگاه ، روبروی داروخانه سپاهان ، مجتمع اطبا ، طبقه اول
تلفن : 32223328 - 031