محققان، 6 چالش را- که انسان ها در استفاده از هوش مصنوعی با آن روبرو هستند- شناسایی کرده اند.
27 مارس 2023
یک استاد دانشگاه مرکزی فلوریدا و 26 محقق دیگر، مطالعهای را منتشر کردهاند که در آن چالشهایی را مشخص می کند که انسان باید بر آنها غلبه کند تا اطمینان، حاصل شود که هوش مصنوعی قابل اعتماد، ایمن و سازگار با ارزشهای انسانی است.
هوش مصنوعی از عروسک های بازی تا کمک به انسان در تولیدات و سلامت تا زیان های آن بر جسم و روح انسان- قسمت پنجاه
تلاش هوش مصنوعی در رفاه انسان و نه در جهت رقابت با انسان، برای آینده ی جامعه ی بشری لازم است.
همچنین این تلاش در صورتی در آینده ی جامعه ی بشری سودمند است که در خدمت رفاه یک فرقه، نژاد یا کیش و آیین یا یک جامعه ی معین نباشد بلکه با ایجاد توازن دقیق در اجزای مختلف مداخله ی خود، حق هر جزء را در جای خود قرار دهد.
طبیعتا یافتن مرزهای تمایز و تعیین نسبت ها در این تمایزها، در ایجاد تعادل میان اجزا کار ساده ای نیست ولی توانایی شگفت هوش مصنوعی به خصوص کامپیوترهای کوانتومی آینده در محاسبات، بسیار در یافتن راه حل های مفید، سودمند خواهد بود.
از سوی دیگر قدرت محاسباتی بالای این سیستم ها میتواند شمشیری دو لبه باشد و در خدمت فرقه گرایی و نژاد پرستی و دیکتاتوری جامعه ی خاصی بر دیگر جمعیت ها مورد استفاده قرار بگیرد. (برای بررسی بیشتر به تدریس #دکتر_علا_سالم، در مورد خطرات هوش مصنوعی مراجعه شود.
دکتر علا سالم، دانشمند عراقی، مدیر دانشکده ی پژوهش های برتر دینی و لغوی در نجف اشرف و صاحب دهها کتاب و مقاله در موضوع تاریخ ادیان و مباحث فیزیک جدید و مباحث هوشیاری و شناخت
https://youtu.be/4aSOF-9SJoU
)
همچنین این سیستم ها باید بازخورد شایسته ای داشته باشد به این معنی که در برابر نتیجه ای که ایجاد می کند؛ یا از طریق سیستم های بازخوردی درون هوش مصنوعی و یا از طریق مدیریت انسانی، قابل اصلاح باشد.
رعایت اخلاق انسانی در تولید محصول و رعایت حقوق کاربران و غیر کاربران، جزء ضروری برای ایجاد محیطی امن در مداخله ی این سیستم هاست. همچنین باید در محدوده ی ظرفیت شناختی جامعه ای عمل کند که در آن کار میکند. این مورد فقط محدود به سیستم های هوشمند مصنوعی نیست بلکه هر سیستم هوشمند دیگر در یک جامعه؛ چه سیستم هوشمند انسانی و یا غیر انسانی، برای سودمند بودن ناچار است در حد ظرفیت ذهنی دریافت کنندگان، سخن بگوید.
سخن گفتن؛ چه سخن در قالب کلام گفتاری و یا تکلم در قالب رفتار و عمل، در سطح بالاتر از ظرفیت دریافت کننده، کاری بیهوده و هدر دادن کلام است.
این مطالعه با عنوان شش چالش بزرگ هوش مصنوعی انسان محور در مجله ی بین المللی تعامل انسان و کامپیوتر منتشر شد.
اوزلم گریبای استادیار دپارتمان مهندسی صنایع و سیستم های مدیریت UCF، محقق اصلی این مطالعه بود.
او میگوید:این فناوری در بسیاری از جنبههای زندگی ما برجستهتر شده است، اما چالشهای زیادی را نیز به همراه داشته است که باید مورد مطالعه قرار گیرند.
بهعنوان مثال، گاریبای- که روی برنامههای هوش مصنوعی در طراحی و کشف مواد و دارو، کار میکند و اینکه هوش مصنوعی چگونه بر سیستمهای اجتماعی تأثیر میگذارد- میگوید، ادغام گسترده هوش مصنوعی در آینده میتواند به طور قابل توجهی بر جنبه های زندگی انسان تأثیر بگذارد که هنوز به طور کامل شناخته نشده است.
شش چالشی که گاریبای و تیم محققان شناسایی کردند عبارتند از:
چالش 1، بهزیستی انسان: هوش مصنوعی باید بتواند فرصتهای پیادهسازی آن را کشف کند تا به نفع رفاه انسان باشد. همچنین باید در هنگام تعامل با هوش مصنوعی، از رفاه کاربر حمایت کرد.
چالش 2، مسئولیت پذیری: هوش مصنوعی مسئولیت پذیر، به مفهوم اولویت دادن به رفاه انسان و جامعه در طول چرخه ی زندگی هوش مصنوعی اشاره دارد. این تضمین میکند که از مزایای بالقوه هوش مصنوعی، بهگونهای استفاده شود که با ارزشها و اولویتهای انسانی همسو باشد، در حالی که خطر پیامدهای ناخواسته یا بی اخلاقی ها را کاهش دهد.
چالش 3، حریم خصوصی: جمع آوری، استفاده و انتشار داده ها در سیستم های هوش مصنوعی باید به دقت مورد توجه قرار گیرد تا از حفظ حریم خصوصی افراد، اطمینان حاصل شود و از استفاده ی زیانبار علیه افراد یا گروه ها جلوگیری شود.
چالش 4، طراحی: اصول طراحی انسان محور، برای سیستم های هوش مصنوعی باید از چارچوبی استفاده کند که بتواند به تکنیسین ها اطلاع دهد. این چارچوب بین هوش مصنوعی با ریسک بسیار کم، هوش مصنوعی بدون نیاز به اقدامات خاص و هوش مصنوعی با خطرات بسیار بالا و هوش مصنوعی غیر مجاز، تمایز میگذارد.
چالش 5، شیوه ی راهبری و نظارت: یک چارچوب راهبری- که کل چرخه ی حیات هوش مصنوعی را از تصور، توسعه تا استقرار در نظر میگیرد، مورد نیاز است.
چالش 6، تعامل انسان و هوش مصنوعی: برای تقویت یک رابطه اخلاقی و عادلانه بین انسان و سیستم های هوش مصنوعی، ضروری است که تعامل ها بر اساس اصل اساسی احترام به ظرفیت های شناختی انسان باشد. به طور خاص، انسان ها باید کنترل کامل و مسئولیت رفتار و نتایج سیستم های هوش مصنوعی را حفظ کنند.
این مطالعه- که در بیش از 20 ماه انجام شد- شامل نظرات 26 کارشناس بین المللی است که سوابق مختلفی در فناوری هوش مصنوعی دارند.
گاریبای می گوید: «این چالش ها مستلزم ایجاد فناوری های هوش مصنوعی انسان محور است که اخلاق، انصاف و ارتقای رفاه انسان را در اولویت قرار می دهد.
چالشها به اتخاذ رویکردی انسانمحور که شامل طراحی مسئولانه، حفاظت از حریم خصوصی، پایبندی به اصول طراحی انسانمحور، حاکمیت و نظارت مناسب و تعامل محترمانه با ظرفیتهای شناختی انسان میشود، نیاز دارد.»
او میگوید که در مجموع، این چالشها فراخوان اقدام برای جامعه ی علمی در توسعه و پیادهسازی فناوریهای هوش مصنوعی است و برای بشریت اولویت دارد و به نفع آن است.
این گروه، متشکل از 26 متخصص شامل اعضای آکادمی ملی مهندسی و محققان از آمریکای شمالی، اروپا و آسیا است که تجربیات گسترده ای در سراسر دانشگاه، صنعت و دولت دارند. این گروه همچنین دارای سوابق آموزشی متنوعی در زمینه های مختلف از علوم کامپیوتر و مهندسی تا روانشناسی و پزشکی است.
کار آنها همچنین در فصلی از کتاب، تعامل انسان و رایانه: مبانی، روشها، فناوریها و کاربردها ارائه خواهد شد.
پنج عضو هیئت علمی UCF این مطالعه را با هم نویسندگی کردند:
گاوریل سالوندی، استاد برجسته دانشگاه در کالج مهندسی و علوم کامپیوتر UCF و رئیس موسس آکادمی علوم، مهندسی و پزشکی فلوریدا.
والدمار کارووسکی، استاد و رئیس گروه مهندسی صنایع و سیستمهای مدیریت و مدیر اجرایی موسسه مهندسی سیستمهای پیشرفته در دانشگاه فلوریدا مرکزی.
استیو فیور، مدیر آزمایشگاه علوم شناختی و استاد برنامه علوم شناختی UCF در بخش فلسفه و موسسه شبیه سازی و آموزش.
ایوان گاریبای، دانشیار مهندسی صنایع و سیستم های مدیریت و مدیر ابتکار هوش مصنوعی و داده های بزرگ UCF .
جو کیدر، دانشیار در IST، دانشکده مدلسازی، شبیه سازی و آموزش و یکی از مدیران آزمایشگاه طراحی SENSEable .
نویسنده: رابرت ولز
منبع: دانشگاه فلوریدا مرکزی
تماس: رابرت ولز دانشگاه فلوریدا مرکزی
خلاصه
شش چالش بزرگ هوش مصنوعی انسان محور
پذیرش گسترده فناوریهای هوش مصنوعی (AI) بهطور قابلتوجهی بر وضعیت انسان، تأثیر میگذارد و این تاثیر، هنوز به خوبی شناخته نشده است.
پیامدهای ناخواسته منفی فراوان است، از جمله تداوم و تشدید نابرابری ها و شکاف های اجتماعی از طریق تصمیم گیری الگوریتمی.
ما شش چالش بزرگ را برای جامعه ی علمی ارائه می کنیم تا جوامع علمی، فناوری های هوش مصنوعی ای ایجاد کنند که انسان محور باشد، یعنی اخلاقی، منصفانه باشد و شرایط انسانی را بهبود بخشد.
این چالشهای بزرگ نتیجه یک همکاری بینالمللی در سراسر دانشگاه، صنعت و دولت است و دیدگاههای اجماع گروهی از 26 متخصص در زمینه هوش مصنوعی انسان محور (HCAI) را نشان میدهد.
در اصل، این چالش ها از یک رویکرد انسان محور به هوش مصنوعی دفاع می کنند که:
(1) در رفاه انسان متمرکز است
(2) مسئولانه، طراحی شده است
(3) به حریم خصوصی، احترام می گذارد
(4) از اصول طراحی انسان محور، پیروی می کند
( 5) تحت حاکمیت و نظارت مناسب است (6) با افراد، در تعامل با ظرفیت های شناختی انسان است.
ما امیدواریم که این چالشها و جهتگیریهای تحقیقاتی مرتبط با آن به عنوان فراخوانی برای اقدام در انجام تحقیق و توسعه در هوش مصنوعی باشد که بهعنوان نیرویی مضاعف به سوی جوامعی منصفانهتر، عادلانهتر و پایدارتر عمل میکند.
https://neurosciencenews.com/human-ai-22882/
آدرس مطب : اصفهان ، خیابان آمادگاه ، روبروی داروخانه سپاهان ، مجتمع اطبا ، طبقه اول
تلفن : 32223328 - 031