مسائل اخلاقی فراوان در بهکارگیری هوش مصنوعی در درمان سرطان
مسائل شامل قابلیت توضیح، رضایت بیمار و مسئولیتپذیری است
به گزارش مجله زیبایی سبز به نقل از هلث دی،تحقیقات جدید نشان میدهد که موانع اخلاقیای بر سر راه بهکارگیری هوش مصنوعی (AI) در درمان سرطان وجود دارد. این یافتهها در مطالعهای که بهصورت آنلاین در تاریخ ۲۸ مارس در JAMA Network Open منتشر شد، آمده است.
دکتر اندرو هانتل از مؤسسهی سرطان دانا-فاربر در بوستون و همکارانش دیدگاههای متخصصین انکولوژی را دربارهی حوزهی اخلاق استفاده از هوش مصنوعی در مراقبتهای بالینی مورد بررسی قرار دادند. این تحلیل شامل ۲۰۴ پاسخ به نظرسنجی از ۳۷ ایالت آمریکا بود.
پژوهشگران دریافتند که اکثر شرکتکنندگان (۸۴.۸ درصد) گزارش دادند که مدلهای تصمیمگیری بالینی مبتنی بر هوش مصنوعی باید برای قابل استفاده بودن در کلینیک، توسط متخصصین انکولوژی قابل توضیح باشند، در حالی که ۲۳.۰ درصد بیان کردند که این مدلها باید برای بیماران نیز قابل توضیح باشند. هشت نفر از هر ۱۰ نفر (۸۱.۴ درصد) از رضایت بیمار برای استفاده از مدلهای هوش مصنوعی در تصمیمگیریهای درمانی حمایت کردند. در سناریویی که یک مدل تصمیمگیری هوش مصنوعی یک رژیم درمانی متفاوت از آنچه متخصص انکولوژی قصد توصیهاش را دارد، انتخاب کند، اکثر پاسخدهندگان گفتند که هر دو گزینه را به بیمار ارائه میدهند و اجازه میدهند بیمار تصمیم بگیرد (۳۶.۸ درصد)، با این حال، متخصصین انکولوژی شاغل در محیطهای دانشگاهی نسبت به سایر متخصصین، بیشتر تمایل داشتند که اجازه تصمیمگیری را به بیمار بدهند (نسبت شانس، ۲.۵۶). سه چهارم از پاسخدهندگان (۷۶.۵ درصد) موافق بودند که متخصصین انکولوژی باید بیماران را از ابزارهای هوش مصنوعی مغرضانه محافظت کنند، اما تنها ۲۷.۹ درصد به توانایی خود در شناسایی مدلهای هوش مصنوعی با قدرت نمایندگی ضعیف اطمینان داشتند.
نویسندگان این مطالعه مینویسند: «این یافتهها نشان میدهد که اجرای هوش مصنوعی در انکولوژی باید شامل ارزیابیهای دقیق تأثیر آن بر تصمیمات مراقبتی و همچنین مسئولیت تصمیمگیری در زمان بروز مشکلات مرتبط با استفاده از هوش مصنوعی باشد.»
گفتنی است که چندین نویسندهی این مطالعه با صنایع دارویی و زیستفناوری ارتباطاتی دارند.