هشدار سازمان جهانی بهداشت درباره هوش مصنوعی
سازمان بهداشت جهانی در خصوص خطرات هوش مصنوعی هشدار داد.
سازمان بهداشت جهانی در خصوص خطرات هوش مصنوعی هشدار داد.
سازمان بهداشت جهانی درباره استفاده از چت رباتهای ایجاد شده توسط هوش مصنوعی هشدار داد و خواستار هوش مصنوعی ایمن و اخلاقی برای سلامتی شد.
به گزارش سازمان بهداشت جهانی (WHO)، این سازمان خواستار احتیاط در استفاده از ابزارهای مدل زبان بزرگ (LLM) تولید شده توسط هوش مصنوعی (AI) برای محافظت و ارتقای رفاه انسان، ایمنی و استقلال انسان و حفظ سلامت عمومی است.
ابزارهای مدل زبان بزرگ ها شامل برخی از پلتفرم های به سرعت در حال گسترش مانند ChatGPT، Bard، Bert و بسیاری دیگر هستند که درک، پردازش و تولید ارتباطات انسانی را تقلید می کنند. انتشار عمومی و استفاده آزمایشی رو به رشد آنها برای مقاصد مرتبط با سلامت، هیجان قابل توجهی را در مورد پتانسیل حمایت از نیازهای بهداشتی مردم ایجاد میکند.
ضروری است که هنگام استفاده از ابزارهای مدل زبان بزرگ که به نام چت ربات های هوش مصنوعی شناخته می شوند، برای بهبود دسترسی به اطلاعات بهداشتی، به عنوان یک ابزار پشتیبانی تصمیم، یا حتی برای افزایش ظرفیت تشخیصی در محیطهای کم منابع برای محافظت از سلامت مردم و کاهش نابرابری، خطرات به دقت بررسی شوند.
در حالی که سازمان بهداشت جهانی مشتاق استفاده مناسب از فناوریها، از جمله چت با هوش مصنوعی، برای حمایت از متخصصان مراقبتهای بهداشتی، بیماران، محققان و دانشمندان است، این نگرانی وجود دارد که احتیاطهایی که معمولاً برای هر فناوری جدید اعمال میشود، به طور مداوم در مورد ابزارهای مدل زبان بزرگ اعمال نمیشود. این شامل گسترش ارزش های کلیدی شفافیت، اخلاق مداری، مشارکت عمومی، نظارت متخصصان و ارزیابی دقیق است.
پذیرش سریع سیستمهای آزمایشنشده میتواند منجر به اشتباهات کارکنان مراقبتهای بهداشتی، آسیب رساندن به بیماران، کاهش اعتماد به هوش مصنوعی و در نتیجه تضعیف (یا تأخیر) مزایای بالقوه بلندمدت و استفاده از چنین فناوریهایی در سراسر جهان شود.
نگرانی هایی که مستلزم نظارت دقیق مورد نیاز برای استفاده از فناوری ها به روش های ایمن، مؤثر و اخلاقی هستند عبارتند از:
دادههای مورد استفاده برای آموزش هوش مصنوعی ممکن است مغرضانه باشد و اطلاعات گمراهکننده یا نادرستی ایجاد کند که میتواند خطراتی برای سلامتی، برابری و فراگیر بودن ایجاد کند.
ابزارهای مدل زبان بزرگ ها پاسخ هایی را تولید می کنند که می توانند برای کاربر نهایی معتبر و قابل قبول به نظر برسند. با این حال، این پاسخ ها ممکن است کاملاً نادرست باشند یا حاوی خطاهای جدی باشند، به ویژه برای پاسخ های مرتبط با سلامت.
ممکن است ابزارهای مدل زبان بزرگ در مورد دادههایی که قبلاً برای چنین استفادههایی رضایت ارائه نشده است آموزش ببینند و ممکن است از دادههای حساس (از جمله دادههای سلامت) که کاربر برای ایجاد پاسخ در اختیار یک برنامه کاربردی قرار میدهد، محافظت نکنند.
از چت بات ها می توان برای تولید و انتشار اطلاعات نادرست بسیار قانع کننده در قالب محتوای متنی، صوتی یا ویدیویی استفاده نادرست کرد که تشخیص آن برای عموم از محتوای سلامت قابل اعتماد دشوار است.
در حالی که بهداشت جهانی متعهد به استفاده از فناوریهای جدید، از جمله هوش مصنوعی و سلامت دیجیتال برای بهبود سلامت انسان است، سازمان بهداشت جهانی توصیه میکند که سیاستگذاران از ایمنی و محافظت از بیمار اطمینان حاصل کنند، در حالی که شرکتهای فناوری برای تجاریسازی ابزارهای مدل زبان بزرگ (چت بات های هوش مصنوعی) تلاش میکنند.
سازمان بهداشت جهانی پیشنهاد میکند که به این نگرانیها رسیدگی شود، و شواهد واضحی از منافع قبل از استفاده گسترده از آنها در مراقبتهای بهداشتی و پزشکی معمول، چه توسط افراد، چه ارائهدهندگان مراقبتها یا مدیران سیستم سلامت و سیاستگذاران، اندازهگیری شود.
سازمان بهداشت جهانی بر اهمیت به کارگیری اصول اخلاقی و حکمرانی مناسب، همانطور که در راهنمای سازمان بهداشت جهانی، در مورد اخلاق و حکمرانی هوش مصنوعی برای سلامت، در هنگام طراحی، توسعه و استقرار هوش مصنوعی برای سلامت برشمرده شده است، تاکید می کند.
۶ اصل اصلی شناسایی شده توسط سازمان بهداشت جهانی عبارتند از: (۱) حفاظت از خودمختاری. (۲) ارتقاء رفاه انسان، ایمنی انسان، و منافع عمومی. (۳) شفافیت، توضیح پذیری و قابل فهم بودن را تضمین کند. (۴) مسئولیت پذیری و مسئولیت شناسی را تقویت کند. (۵) از فراگیری و برابری آن اطمینان حاصل شود. (۶) هوش مصنوعی پاسخگو و پایدار را ارتقا دهید./ایرنا
ارسال نظر