اندیشه و دین

باید ضمن مقابله با ماشینی شدن جامعه انسانی از هوش مصنوعی بهره برد

به گزارش خبرگزاری مهر، حجت الاسلام حمید شهریاری دبیرکل مجمع که به منظور شرکت در بیست و ششمین مجمع فقه اسلامی به قطر سفر کرده است، با بیان مطالب و ملاحظاتی درباره ی سخنرانی‌های حاضران در خصوص احکام هوش مصنوعی و ضوابط و اخلاقیات آن با تاکید بر ضرورت طبقه‌بندی ساختاری در تحلیل آسیب‌های هوش مصنوعی گفت: فهرست آسیب‌های هوش مصنوعی نیازمند چارچوبی منطقی و ساختاری است که ابعاد فنی، اخلاقی، اجتماعی، اقتصادی و اعتقادی را دربر گیرد. بر این اساس، پیشنهاد می‌شود این آسیب‌ها در پنج سطح بُعد حقوقی فقهی، بُعد امنیتی سیاسی، بُعد فنی سیستمی، بُعد اقتصادی و بُعد اجتماعی فرهنگی طبقه‌بندی شوند.

وی افزود: صرفِ ذکر آسیب‌ها گرچه ضروری است، اما کافی نیست؛ بلکه باید به‌صورت گسترده‌تری تهدیدات وجودی و فلسفی، به‌ویژه در سطح آینده‌پژوهانه، بیان گردد و با شواهد واقعی و مصادیق عینی مستند شود. از جمله این تهدیدات می‌توان به سناریوهای مربوط به فراهوش مصنوعی (Superintelligence)، فقدان امکان کنترل بلندمدت بر سامانه‌های هوشمند مستقل و واگذاری تصمیمات سرنوشت‌ساز به سامانه‌های بی‌مسئولیت و حکومت‌های فاقد مسئولیت‌پذیری اشاره کرد.

حجت الاسلام حمید شهریاری گفت: همچنین باید نسبت به کاربردهای فعلی این فناوری نیز حساسیت بیشتری نشان داد. سلاح هوشمندی که در ترور شهید یحیی السنوار و شهید اسماعیل هنیه به کار رفت، باید در این کنفرانس به‌طور جدی پیگیری شود و اقدامات رژیم صهیونیستی در این زمینه محکوم گردد. این رژیم غاصب دارای سلاح‌های هسته‌ای، سلاح‌های هوشمند و سلاح‌های شیمیایی است، و بر عهده مجامع فقهی است که حرمت به‌کارگیری این سلاح‌ها را تبیین نمایند. این رژیم غاصب با این کاربردها، امنیت جهانی را به طور جدی به خطر می‌اندازد و صلح عادلانه را مخدوش می‌سازد و کرامت انسانی را پایمال می‌کند.

دبیرکل مجمع خاطرنشان کرد: بهره‌گیری از منابع بین‌المللی معتبر برای شناخت موضوع و درک ابعاد آن ضرورت است. از جمله این منابع، می‌توان به سند IEEE درباره اخلاق هوش مصنوعی (سال ۲۰۱۹ / هزار و نهصد و نوزده میلادی)، گزارش یونسکو در موضوع اخلاق هوش مصنوعی (سال ۲۰۲۱ / هزار و نهصد و بیست و یک میلادی) که استاد دکتر یاسر عجیل النشمی نیز در سخنان خود به آن اشاره کردند و قانون اتحادیه اروپا در زمینه هوش مصنوعی اشاره کرد که این منابع چارچوب‌هایی دقیق و قابل مقایسه برای ارزیابی آسیب‌ها و خطرات فراهم می‌کنند.

وی در پایان اتخاذ رویکرد تحلیلی و مسأله‌محور به‌جای صرفاً رویکرد خطابی و هشداردهنده را ضروری دانشت و افزود: استفاده از تعابیری همچون: «هوش مصنوعی وسیله‌ای برای کشتار، فریب و تدلیس است» بیشتر جنبه هشداردهنده دارد تا تحلیلی. چنین زبانی ممکن است برای مخاطبان علمی یا بین‌المللی قانع‌کننده نباشد و نیازمند بازنویسی در چارچوب تحلیل‌های نهادی و روش‌مند باشد. همچنین، با اینکه اشاره به مفاهیمی همچون تبعیض الگوریتمی، فقدان شفافیت و ضعف مسئولیت‌پذیری قابل تقدیر است، اما کافی نیست؛ بلکه باید به تحلیل دقیق سازوکارهای فنی پشت این آسیب‌ها پرداخت، مانند: ساختار شبکه‌های عصبی، یادگیری ماشین و ماهیت داده‌های مورد استفاده در آموزش و کلان‌داده‌ها. در نهایت تمام این موارد باید به گونه‌ای بررسی شود که کرامت انسانی حفظ گردد و از ماشینی شدن جامعه انسانی جلوگیری به‌عمل آید.

نمایش بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا
آماده برای کشف ی سفر مجازی … ورزش با ساعت هوشمند عکاسی با طعم هدفون های 2023