هوش مصنوعی بهنوعی در زندگی دیجیتالی ما درهمتنیده شده و از وقتی که بلند میشویم تا زمانی که میخوابیم، به طریقی از تواناییهای آن بهرهمند میشویم؛ مثلاً از دستیارهای صوتی دیجیتالی مثل گوگل اسیستنت برای پیشبینی وضعیت آبوهوا استفاده میکنیم یا سوالاتمان را از چتباتهای هوش مصنوعی مثل ChatGPT میپرسیم . حال با افزایش نفوذ هوش مصنوعی به زندگی ما یک سؤال مهم مطرح شده است. آیا در حال پرورش یاری دلسوز برای خودمان هستیم یا با دست خودمان شیطانی دیجیتالی خلق کردهایم که بیشتر و بیشتر غیرقابلکنترل میشود؟ رویکرد responsible AI به چنین سؤالاتی پاسخ میدهد. درضمن به ما میگوید که چطور از هوش مصنوعی استفاده کنیم که هم از مزایای آن بهرهمند شویم و هم از خطرات آن در امان بمانیم.
به بیان ساده Responsible AI به معنی بیخطر کردن هوش مصنوعی است. اجرای این رویکرد درست مانند زمانی است که به رباتی یاد میدهید انتخابهای خود را مسئولانه انجام دهد و با مردم با مهربانی رفتار کند. بهاینترتیب برای مسئولیتپذیرکردن و ملاحظهکارکردن ربات تلاش کردهایم.
در ضمن متخصصان هوش مصنوعی همیشه میخواهند تصمیمات این فناوری واقعاً به افراد کمک کند (مثلاً فردی را از یک مخمصه نجات دهد) و برای همه یکسان باشد. چنین تصمیماتی نباید به کسی آسیب بزنند. تحقق چنین هدفی نیز یکی دیگر از اهداف اصلی Responsible AI محسوب میشود. در کل این رویکرد به دنبال بهترکردن جهان بهجایی بهتر با کمک هوش مصنوعی و جلوگیری از آسیبزدن این فناوری به افراد است. در صورت اجرای صحیح Responsible AI دیگر تهدیدی برای انسان به حساب نمیآید.
اگر Responsible AI نبود، چه اتفاقی میافتاد؟
در صورت عدم وجود Responsible AI در هنگام استفاده از هوش مصنوعی با مشکلاتی بزرگی مواجه میشدیم که این فناوری را واقعاً خطرناک میکردند. مهمترین این مشکلانت به شرح زیر هستند:
- ایجاد تبعیض و نابرابری: مثلاً ممکن بود یک سیستم هوش مصنوعی طراحیشده برای استخدام، افراد معلول را برای استخدام در مشاغل کاملاً فکری، صرفاً به دلیل معلولبودن واجد شرایط نداند.
- نقض حریم خصوصی: مثلاً ممکن بود از دادههای شخصی افراد (مثل آدرس) بدون اجازه و اطلاع آنها برای آموزش مدلهای هوش مصنوعی سوءاستفاده شود
- ایمننبودن دستگاههای تحت کنترل هوش مصنوعی: مثلاً شاید در مورد ایمنی خودروهای خودران هیچ نوع نظارت و کنترلی انجام نمیشد. در این صورت میزان تصادف این خودروها بهشدت افزایش میافت و وجود آنها در جاده و خیابانها تهدیدی برای امنیت جامعه بود
- سلب اعتماد عمومی نسبت به هوش مصنوعی و عدم پذیرش این فناوری و مزایای بالقوه آن: مثلاً اگر خودروهای خودران دائماً تصادف کنند، مردم بهمرور زمان اعتماد خود به این خودروها را از دست میدهند
- تشدید نگرانیهای اخلاقی در مورد برخی از دستگاههای خطرناک دارای هوش مصنوعی؛ مثل ایجاد نگرانی در مورد کشتار جمعی افراد توسط سلاحهای هوش مصنوعی
- بیقانون شدن حوزه هوش مصنوعی: چنین اتفاقی قطعاً منجر به سوءاستفاده از هوش مصنوعی و گسترش بهرهمندی از آن برای پیشبرد اهداف مخرب مثل ساخت تصاویر و ویدیوهای جعلی با این فناوری میشود.
- آسیب دیدن محیطزیست: فرایند آموزش مدلهای هوش مصنوعی در سطح گسترده برق زیادی مصرف میکند. در ضمن گسترش استفاده ازنرمافزارها و سختافزارهای مجهز به این فناوری در دراز مدت منجر به ایجاد ستردهای از زبالههای الکترونیکی میشود.
- از بین رفتن مسئولیتپذیری و پاسخگویی در حوزه ایجاد محصولات هوش مصنوعی: Responsible AI توسعهدهندگان نرمافزارها و سختافزارهای مبتنی بر هوش مصنوعی را ملزم به پاسخگویی و مسئولیتپذیری میکند؛ مثلاً چنین افرادی باید در مورد نحوه جمعآوری، پردازش و استفاده از دادههای آموزشی برای آمادهسازی مدلهای هوش مصنوعی پاسخگو باشند. در ضمن طراحان و سازندگان وسایلی مثل خودروهای خودران و سلاحهای هوش مصنوعی باید مسئولیت خطرات استفاده از آنها را بپذیرند.
- شفاف نبودن نحوه عملکرد و تصمیمگیری سیستمهای هوش مصنوعی: در صورت عدم وجود رویکرد Responsible AI شاید هیچ توضیحی در مورد عملکرد و نحوه تصمیمگیری سیستمهای هوش مصنوعی ارائه نمیشد؛ اما اکنون این رویکرد توسعهدهندگان را ملزم کرده در مورد کار و تصمیمگیری سیستمهای حساس هوش مصنوعی کاملاً شفافسازی کنند؛ مثلاً توضیح دهند چگونه یک سیستم تشخیص چهره با کمک هوش مصنوعی دزدان و مجرمان را شناسایی میکند
- عدم وجود نظارت و کنترل انسان: شاید اگر هیچ مسئولیتی در مورداستفاده از سیستمهای هوش مصنوعی تعریف نمیشد، این سیستمها بدون کنترل و نظارت انسان به فعالیت خود ادامه میدادند. در چنین شرایطی ممکن بود برخی از رباتها مثل رباتهای کارخانهها با اشتباهات زیادشان موجب ضرر و زیان شوند.
ارسال نظر
هیچ نظری درباره این مقاله ثبت نشده است.