از آنجایی که هوش مصنوعی (AI) این روزها به شکل چشمگیری برای همه کشورها اهمیت پیدا کرده است، کارشناسان فعال در این زمینه نیاز به ایجاد مرزهای اخلاقی در زمان ایجاد و پیادهسازی ابزارهای جدید هوش مصنوعی شناسایی کردهاند. اگرچه در حال حاضر هیچ نهاد حاکم در مقیاس گستردهای برای نوشتن و اجرای این قوانین وجود ندارد، اما بسیاری از شرکت های فناوری نسخه مخصوص به خود را از هوش مصنوعی اخلاقی یا اخلاق در هوش مصنوعی (AI ethics) یا کد رفتاری هوش مصنوعی اتخاذ کرده اند. اخلاق در هوش مصنوعی، اصول اخلاقیای است که شرکتها برای هدایت توسعه و بهکارگیری مسئولانه و منصفانه از هوش مصنوعی استفاده میکنند. در این مقاله از وبسایت شرکت هوش مصنوعی آویر، بررسی خواهیم کرد که هوش مصنوعی اخلاقی چیست و چرا اهمیت دارد، و بررسی خواهیم کرد که چالشها و مزایای ایجاد یک کد رفتاری هوش مصنوعی چیست.
هوش مصنوعی اخلاقی چیست؟
هوش مصنوعی اخلاقی (AI ethics) یا اخلاق در هوش مصنوعی، مجموعهای از اصول راهنما است که ذینفعان (از مهندسان تا مقامات دولتی) برای اطمینان از توسعه و استفاده مسئولانه فناوری هوش مصنوعی استفاده میکنند. این مفهوم به معنای اتخاذ رویکردی ایمن، امن، انسانی و سازگار با محیط زیست برای هوش مصنوعی است.
یک کد اخلاقی قوی هوش مصنوعی میتواند شامل اجتناب از تعصب، اطمینان از حریم خصوصی کاربران و دادههای آنها و کاهش خطرات زیستمحیطی باشد. کدهای اخلاقی در شرکتها و چارچوبهای نظارتی تحت رهبری دولت دو روش اصلی برای پیادهسازی هوش مصنوعی اخلاقی هستند. هر دو رویکرد با پوشش دادن مسائل هوش مصنوعی اخلاقی جهانی و ملی، و ایجاد زمینه سیاست برای هوش مصنوعی اخلاقی در شرکتها، به تنظیم فناوری هوش مصنوعی کمک میکنند.
به طور گستردهتر، منشأ پیشرفت بحث در مورد هوش مصنوعی اخلاقی از تمرکز بر تحقیقات دانشگاهی و سازمانهای غیر انتفاعی بوده است. امروزه، شرکتهای بزرگ فناوری مانند آیبیام، گوگل و متا تیمهایی را برای مقابله با مسائل اخلاقی تشکیل دادهاند که از جمعآوری حجم عظیمی از دادهها به وجود میآیند. در همان زمان، دولت و نهادهای بین دولتی شروع به تدوین مقررات و سیاستهای اخلاقی بر اساس تحقیقات دانشگاهی کردهاند.
دستاندرکاران هوش مصنوعی اخلاقی
توسعه اصول اخلاقی برای استفاده مسئولانه و توسعه هوش مصنوعی مستلزم همکاری دستاندرکاران این صنعت با یکدیگر است. ذینفعان باید بررسی کنند که چگونه مسائل اجتماعی، اقتصادی و سیاسی با هوش مصنوعی تلاقی پیدا میکنند و تعیین کنند که چگونه ماشینها و انسانها میتوانند به طور هماهنگ همزیستی کنند.
هر یک از این دستاندرکاران نقش مهمی در تضمین سوگیری و خطر کمتر برای فناوریهای هوش مصنوعی دارند.
- دانشگاهیان: محققان و اساتید مسئول توسعه آمار، تحقیقات و ایدههای مبتنی بر نظریه هستند که میتوانند از دولتها، شرکتها و سازمانهای غیرانتفاعی حمایت کنند.
- دولتها: آژانسها و کمیتههای داخل یک دولت میتوانند به تسهیل هوش مصنوعی اخلاقی در یک کشور کمک کنند. یک مثال خوب از همکاری دولتها، گزارش آمادگی برای آینده هوش مصنوعی است که توسط شورای ملی علم و فناوری آمریکا (NSTC) در سال 2016 تهیه شد، که هوش مصنوعی و ارتباط آن با اطلاعرسانی عمومی، مقررات، حکمرانی، اقتصاد و امنیت را تشریح میکند.
- نهادهای بین دولتی: نهادهایی مانند سازمان ملل متحد و بانک جهانی مسئول افزایش آگاهی و تهیه پیشنویس توافقنامهها برای هوش مصنوعی اخلاقی در سطح جهانی هستند. به عنوان مثال، 193 کشور عضو یونسکو اولین توافقنامه جهانی در مورد هوش مصنوعی اخلاقی را در نوامبر 2021 برای ارتقای حقوق و کرامت بشر به تصویب رساندند.
- سازمانهای غیرانتفاعی: سازمانهای غیرانتفاعی مانند Black in AI و Queer in AI به گروههای مختلف کمک میکنند تا در فناوری هوش مصنوعی حضور پیدا کنند. همچنین، مؤسسه آینده زندگی (Future of Life Institute) 23 دستورالعمل ایجاد کرد که اصول هوش مصنوعی آن Asilomar نام گرفتهاند که خطرات، چالشها و نتایج خاصی را برای فناوریهای هوش مصنوعی ترسیم میکنند.
- شرکتهای خصوصی: مدیران Google، Meta، و سایر شرکتهای فناوری، و همچنین بانکداری، مشاوره، مراقبتهای بهداشتی و سایر صنایع فعال در بخش خصوصی که از فناوری هوش مصنوعی استفاده میکنند، مسئول ایجاد تیمهای اخلاقی و کدهای رفتاری هستند. این مدیران اغلب استانداردی را برای شرکتها ایجاد میکند که از آن پیروی کنند.
چرا هوش مصنوعی اخلاقی مهم است؟
هوش مصنوعی اخلاقی بسیار مهم است زیرا فناوری هوش مصنوعی برای تقویت یا جایگزینی هوش انسانی طراحی شده است – اما وقتی فناوری برای تکرار زندگی انسان طراحی شده است، همان مسائلی که میتواند قضاوت انسان را برانگیزد، میتواند به فناوری نفوذ کند.
پروژههای هوش مصنوعی که بر اساس دادههای مغرضانه یا نادرست ساخته میشوند، میتوانند عواقب بدی داشته باشند، بهویژه برای گروهها و افرادی که اطلاعات مناسبی از هوش مصنوعی ندارند. علاوه بر این، اگر الگوریتمهای هوش مصنوعی و مدلهای یادگیری ماشین خیلی عجولانه ساخته شوند، اصلاح سوگیریهای آموختهشده برای مهندسان و مدیران محصول غیرقابل مدیریت خواهد بود. ترکیب یک کد اخلاقی در طول فرآیند توسعه برای کاهش خطرات آتی آسانتر است.
هوش مصنوعی اخلاقی در فیلم و تلویزیون
داستانهای علمی تخیلی – در کتابها، فیلمها و شبکههای تلویزیونی – برای مدتی با مفهوم اخلاق در هوش مصنوعی بازی میکنند. در فیلم Her Spike Jonze در سال 2013، یک فرد به دلیل صدای فریبنده کامپیوتر خود، عاشق آن میشود. تصور روشهایی که ماشینها میتوانند بر زندگی انسانها تأثیر بگذارند و مرزهای «عشق» را جابجا کنند، سرگرمکننده است، اما همچنین نیاز به تفکر پیرامون این سیستمهای در حال توسعه را برجسته میکند.
نمونههایی از هوش مصنوعی اخلاقی
شاید سادهترین روش برای نشان دادن هوش مصنوعی اخلاقی با مثالهای واقعی باشد. در دسامبر 2022، اپلیکیشن Lensa AI از هوش مصنوعی برای تولید عکسهای پروفایل جالب و کارتونی از تصاویر معمولی افراد استفاده کرد. از نقطه نظر اخلاقی، برخی از مردم به دلیل عدم اعتبار یا پول کافی به هنرمندانی انتقاد کردند که هنر دیجیتال اصلی را که هوش مصنوعی در آن آموزش دیده بود ایجاد کردهاند. به گفته واشنگتن پست، لنزا روی میلیاردها عکسی که بدون رضایت از اینترنت تهیه شده بودند آموزش دیده بود.
مثال دیگر مدل هوش مصنوعی ChatGPT است که کاربران را قادر میسازد تا با پرسیدن سوال با آن ارتباط برقرار کنند. ChatGPT مطالب ارائه شده در اینترنت را برای یافتن دادهها جستجو میکند و با یک متن، کد پایتون یا یک پیشنهاد پاسخ میدهد. یک معضل اخلاقی این است که مردم از ChatGPT برای برنده شدن در مسابقات کدنویسی یا مسابقات نوشتن مقاله استفاده میکنند که این کار در یک رقابت، عادلانه و اخلاقی نیست.
اینها فقط دو نمونه رایج از هوش مصنوعی اخلاقی هستند. از آنجایی که هوش مصنوعی در سالهای اخیر رشد کرده است و تقریباً بر هر صنعت تأثیر میگذارد و تأثیر مثبت زیادی بر صنایعی مانند مراقبتهای بهداشتی دارد، موضوع هوش مصنوعی اخلاقی حتی برجستهتر شده است. چگونه از هوش مصنوعی بدون تعصب اطمینان حاصل کنیم؟ برای کاهش خطرات در آینده چه کاری می توان انجام داد؟ راهحلهای بالقوه زیادی وجود دارد، اما ذینفعان باید مسئولانه و مشارکتی عمل کنند تا نتایج مثبتی در سراسر جهان ایجاد کنند.
چالشهای اخلاقی هوش مصنوعی
چالشهای زیادی در زندگی واقعی وجود دارد که میتواند به نشان دادن هوش مصنوعی اخلاقی کمک کند. در اینجا فقط چند مورد از این چالشها را بررسی خواهیم کرد.
هوش مصنوعی و تعصب
اگر هوش مصنوعی دادههایی را جمعآوری نکند که بهطور دقیق جمعیت را نشان میدهد، تصمیمات آنها ممکن است مستعد سوگیری باشد. در سال 2018، آمازون به دلیل استفاده از ابزار استخدام هوش مصنوعی خود مورد انتقاد قرار گرفت چرا که این ابزار رزومههایی را که «زنان» (مانند «جامعه بینالمللی کسبوکار زنان») را در آن نشان میداد، در رتبهبندی پایینتری قرار میداد. در اصل، ابزار هوش مصنوعی علیه زنان تبعیض قائل شد و باعث ایجاد خطر برخورد قانونی برای این غول فناوری شد.
هوش مصنوعی و حریم خصوصی
همانطور که قبلاً در مثال هوش مصنوعی Lensa AI ذکر شد، هوش مصنوعی بر دادههای استخراج شده از جستجوهای اینترنتی، عکسها و نظرات رسانههای اجتماعی، خریدهای آنلاین و موارد دیگر متکی است. در حالی که این امر به شخصیسازی تجربه مشتری کمک می کند، سوالاتی در مورد عدم رضایت آشکار این شرکتها برای دسترسی به اطلاعات شخصی ما وجود دارد.
هوش مصنوعی و محیط زیست
برخی از مدلهای هوش مصنوعی بزرگ هستند و برای آموزش دادهها به انرژی قابل توجهی نیاز دارند. در حالی که تحقیقاتی برای ابداع روشهایی برای هوش مصنوعی کارآمد در حال انجام است، میتوان کارهای بیشتری را برای گنجاندن نگرانیهای اخلاقی زیستمحیطی در سیاستهای مرتبط با هوش مصنوعی انجام داد.
چگونه هوش مصنوعی اخلاقیتری ایجاد کنیم؟
ایجاد هوش مصنوعی اخلاقی بیشتر مستلزم نگاهی دقیق به پیامدهای اخلاقی سیاست، آموزش و فناوری است. چارچوبهای نظارتی میتوانند تضمین کنند که فناوریها به جای آسیب رساندن به جامعه، به نفع جامعه هستند. در سطح جهانی، دولتها شروع به اعمال سیاستهایی برای هوش مصنوعی اخلاقی کردهاند، از جمله نحوه برخورد شرکتها با مسائل حقوقی در صورت بروز سوگیری یا آسیبهای دیگر.
هر کسی که با هوش مصنوعی روبرو میشود، باید خطرات و تأثیر منفی احتمالی هوش مصنوعی غیراخلاقی یا جعلی را درک کند. ایجاد و انتشار منابع در دسترس میتواند این نوع خطرات را کاهش دهد.
ممکن است استفاده از فناوری برای تشخیص رفتارهای غیراخلاقی در اشکال دیگر فناوری غیرمعمول به نظر برسد، اما از ابزارهای هوش مصنوعی میتوان برای تشخیص جعلی بودن یا نبودن یک ویدیو، صدا یا متن استفاده کرد. این ابزارها میتوانند منابع داده و سوگیری غیراخلاقی را بهتر و کارآمدتر از انسانها شناسایی کنند.