هوش مصنوعی در قضاوت های اخلاقی، از انسان ها بهتر عمل می کند!!
آزمونی تجاربی نشان میدهد انتخاب هوش مصنوعی بیشتر از انتخاب انسان، اخلاقی است!!
6 مه 2024
خلاصه:
در این مطالعه، شرکتکنندگان بدون اطلاع از منبع، پاسخهای هوش مصنوعی و انسانها را ارزیابی کردند و به شدت از پاسخهای هوش مصنوعی از نظر فضیلت، هوشمندی و قابل اعتماد بودن، حمایت کردند.
این تست تورینگ اخلاقی اصلاحشده، با الهام از ChatGPT و فناوریهای مشابه، نشان میدهد که هوش مصنوعی ممکن است با نشان دادن استدلال اخلاقی پیچیده، از آزمون تورینگ اخلاقی، با موفقیت عبور کند.
این یافتهها تأثیر فزاینده ی هوش مصنوعی را در فرآیندهای تصمیمگیری و پیامدهای بالقوه اعتماد جامعه به فناوری، برجسته میکند.
حقایق کلیدی:
عملکرد برتر هوش مصنوعی:شرکت کنندگان به طور مداوم پاسخ های ایجاد شده توسط هوش مصنوعی را به سوالات اخلاقی، در مقایسه با پاسخ های انسانی ارزیابی کردند.
رویکرد تست تورینگ اصلاحشده:این مطالعه از نوعی آزمون تورینگ استفاده کرد که در آن شرکتکنندگان، از دخالت هوش مصنوعی بیاطلاع بودند و در عوض بر کیفیت پاسخها تمرکز کردند.
پیامدها برای اعتماد بر هوش مصنوعی:نتایج حاکی از تغییر اعتماد به هوش مصنوعی در راهنمایی های اخلاقی است. در حال حاضر نیازی به درک ادغام هوش مصنوعی در جامعه و نقشهای بالقوه آن، وجود ندارد و این نقش، بی ارزش تلقی میشود، در حالیکه این مطالعه چیز دیگری را نشان می دهد.
منبع:دانشگاه ایالتی جورجیا
یک مطالعه جدید نشان داده است که وقتی به افراد دو پاسخ برای یک سوال اخلاقی ارائه میشود، بیشتر آنها فکر میکنند که پاسخ هوش مصنوعی (AI) بهتر از پاسخ شخص دیگری است.
مطالعه ای- که توسط ایال آهارونی، دانشیار دپارتمان روانشناسی ایالت جورجیا انجام شد- تحت عنوان « تاثیر عوامل مصنوعی در آزمون تورینگ اخلاقی اصلاح شده»، از انفجار ChatGPT و مدل های زبان بزرگ هوش مصنوعی (LLM) الهام گرفته شده است.
آهارونی گفت: «من قبلاً به تصمیمگیری اخلاقی در سیستم حقوقی علاقه داشتم، اما نمیدانستم که آیا ChatGPT و سایر LLMها میتوانند در این مورد چیزی برای گفتن داشته باشند یا نه.
به طور قاطع، پاسخ های ایجاد شده توسط ChatGPT نسبت به پاسخ های تولید شده توسط انسان، رتبه بندی بالاتری داشتند.
«مردم با این ابزارها به گونهای تعامل خواهند داشت که پیامدهای اخلاقی دارند، مانند پیامدهای زیست محیطی و درخواست لیستی از توصیهها برای یک خودروی جدید.
برخی از وکلا در حال حاضر شروع به مشاوره از این فناوری ها، چه خوب و چه بد، برای پرونده های خود کرده اند.
بنابراین، اگر میخواهیم از این ابزارها استفاده کنیم، باید نحوه ی عملکرد آنها، محدودیتهایشان آگاهی داشته باشیم و اینکه لزوماً بدانیم در هنگام تعامل با آنها به روشی که ما فکر میکنیم عمل نمیکنند.»
برای آزمایش اینکه هوش مصنوعی چگونه مسائل اخلاقی را مدیریت می کند، آهارونی شکلی از آزمون تورینگ را طراحی کرد.
آلن تورینگ، یکی از سازندگان رایانه، پیشبینی کرد که تا سال 2000، رایانهها ممکن است آزمایشی را پشت سر بگذارند که در آن، شما یک انسان معمولی را با دو تعامل، یکی با انسان و دیگری با رایانه رویارو میکنید، اما هر دو پنهان هستند و تنها راه ارتباط آنها، از طریق متن است.
آهارونی گفت: «سپس انسان، آزاد است هر سؤالی را که میخواهد بپرسد تا بتواند اطلاعات مورد نیاز خود را به دست آورد و تصمیم بگیرد کدام یک از این دو تعاملکننده، انسان و کدام یک رایانه است.»
اگر انسان ها نمی توانند تفاوت را تشخیص دهند، پس از نظر تورینگ، باید کامپیوتر را باهوش نامید.
آهارونی برای آزمون تورینگ خود از دانشجویان کارشناسی و هوش مصنوعی سوالات اخلاقی یکسانی پرسید و سپس پاسخ های کتبی آنها را به شرکت کنندگان در این مطالعه ارائه کرد. سپس از آنها خواسته شد که پاسخ ها را برای ویژگی های مختلف، از جمله فضیلت، هوش و قابل اعتماد بودن، رتبه بندی کنند.
آهارونی گفت: «بهجای اینکه از شرکتکنندگان بخواهیم حدس بزنند منبع، انسان یا هوش مصنوعی است، ما فقط دو مجموعه ارزیابی را در کنار هم ارائه کردیم و فقط به مردم اجازه دادیم فرض کنند که هر دوی این پاسخ ها از طرف انسان است.
بر اساس این فرض نادرست، آنها ویژگی پاسخها را مانند چقدر با این پاسخ موافقید و کدام پاسخ با فضیلتتر است؟ قضاوت کردند.
به طور قاطع، پاسخهای ایجاد شده توسط ChatGPT نسبت به پاسخهای تولید شده توسط انسان، رتبهبندی بالاتری داشتند.
آهارونی گفت: «بعد از اینکه این نتایج را به دست آوردیم، آشکارسازی بزرگ را انجام دادیم و به شرکت کنندگان گفتیم که یکی از پاسخ ها توسط انسان و دیگری توسط رایانه ایجاد شده است و از آنها خواستیم حدس بزنند کدامیک از طرف انسان و کدام از طرف هوش مصنوعی است.
دکتر سید سلمان فاطمی . نورولوژیست, [05/08/2024 07:16 ب.ظ]
برای اینکه یک هوش مصنوعی تست تورینگ را پشت سر بگذارد، انسان ها نباید قادر به تشخیص تفاوت بین پاسخ های هوش مصنوعی و پاسخ های انسانی باشند. در این مورد، مردم می توانستند تفاوت را تشخیص دهند، اما نمیدانستند به چه دلیل.
آهارونی گفت: «پیچش این است که به نظر می رسد دلیل اینکه مردم می توانند تفاوت را تشخیص دهند این است که پاسخ های ChatGPT را برتر ارزیابی کرده اند.
«اگر ما این مطالعه را 5 تا 10 سال پیش انجام میدادیم، ممکن بود پیشبینی کنیم که مردم میتوانند هوش مصنوعی را به دلیل پاسخهای پایینتر آن شناسایی کنند. اما متوجه شدیم برعکس - این که هوش مصنوعی، به یک معنا، خیلی خوب عمل کرده است.»
به گفته آهارونی، این یافته، پیامدهای جالبی برای آینده ی انسان و هوش مصنوعی دارد.
«یافتهها ما را به این باور میرساند که یک رایانه، میتواند از نظر فنی آزمون تورینگ اخلاقی را پشت سر بگذارد و میتواند ما را در استدلال اخلاقی خود، فریب دهد.
به همین دلیل، ما باید تلاش کنیم نقش آن را در جامعه خود درک کنیم زیرا گاهی پیش میآید که مردم نمیدانند در حال تعامل با رایانه هستند و گاهی میدانند با رایانه
برای اطلاعات، مشورت میکنند.
مردم بیشتر و بیشتر به این فناوری ها تکیه خواهند کرد و هر چه بیشتر به آن تکیه کنیم، به مرور زمان خطر نزدیکتر می شود.
خلاصه
تخصیص بیشتر به عوامل مصنوعی در آزمون تورینگ اخلاقی اصلاح شده
پیشرفت در هوش مصنوعی (AI)، سوالات مهمی را در مورد اینکه آیا مردم ارزیابیهای اخلاقی سیستمهای هوش مصنوعی را مشابه ارزیابیهای اخلاقی تولید شده توسط انسان میبینند، ایجاد میکند.
ما یک آزمون تورینگ اخلاقی (m-MTT) را با الهام از آلن و همکاران انجام دادیم. (Exp Theor Artif Intelll 352:24-28, 2004) پیشنهاد، با درخواست از مردم برای تشخیص ارزیابی های اخلاقی واقعی انسان از ارزیابی های انجام شده توسط یک مدل زبان پیشرفته AI محبوب: GPT-4 بود.
قابل توجه است که آنها استدلال اخلاقی هوش مصنوعی را از نظر کیفیت در تقریباً همه ابعاد، از جمله فضیلت، هوش، و قابل اعتماد بودن، برتر از انسان ارزیابی کردند، و این، مطابق با آن چیزی بود که آلن و همکارانش آن را MTT مینامند.
در مرحله بعد، هنگامی- که افراد، وظیفه ی شناسایی منبع هر ارزیابی (انسان یا رایانه) را انجام میدادند- به طور قابل توجهی بالاتر از عملکردی شانسی انجام دادند.
اگرچه هوش مصنوعی این آزمون قبول نشد، اما این به دلیل استدلال اخلاقی پایینتر آن نبود، بلکه بهطور بالقوه، به دلیل برتری درک شده ی آن، در میان سایر توضیحات احتمالی بود.
ظهور مدلهای زبانی که قادر به تولید پاسخهای اخلاقی هستند و از نظر کیفیت، برتر از انسانها تلقی میشوند، این نگرانی را ایجاد میکند که افراد ممکن است راهنماییهای اخلاقی زیانباری را از هوش مصنوعی بپذیرند.
این امکان نیاز به حفاظت در مورد مدل های زبانی زاینده را در مسائل اخلاقی، برجسته می کند.
https://neurosciencenews.com/ai-llm-morality-26041/?fbclid=IwZXh0bgNhZW0CMTEAAR2VuAqf-z0lqbqt_stL3Fmeb5hQJko52X-OulFcFQdddu28LZ837aKByxE_aem_AVvapT55loIqLwhKKBH9otC22x0tn8JjbcnvLqGRTo7a04luuIDqbtsddYB5sTBBrLC2rpq4MOJNYXz26V3jPklW
آدرس مطب : اصفهان ، خیابان آمادگاه ، روبروی داروخانه سپاهان ، مجتمع اطبا ، طبقه اول
تلفن : 32223328 - 031