کاوش در جنبههای حیاتی حکمرانی و سیاستگذاری هوش مصنوعی، از جمله ملاحظات اخلاقی، چارچوبهای نظارتی و شیوههای جهانی برای استقرار مسئولانه آن.
پیمایش در چشمانداز هوش مصنوعی: راهنمای جهانی برای حکمرانی و سیاستگذاری
هوش مصنوعی (AI) به سرعت در حال دگرگون کردن صنایع و جوامع در سراسر جهان است. مزایای بالقوه آن بسیار زیاد است، اما ریسکهای آن نیز به همان اندازه است. حکمرانی و سیاستگذاری مؤثر هوش مصنوعی برای بهرهبرداری مسئولانه از قدرت آن و اطمینان از توزیع عادلانه مزایای آن حیاتی است. این راهنما یک نمای کلی جامع از حکمرانی و سیاستگذاری هوش مصنوعی ارائه میدهد و مفاهیم کلیدی، روندهای نوظهور و بهترین شیوهها را برای سازمانها و دولتها در سراسر جهان بررسی میکند.
حکمرانی هوش مصنوعی چیست؟
حکمرانی هوش مصنوعی شامل اصول، چارچوبها و فرآیندهایی است که توسعه و استقرار سیستمهای هوش مصنوعی را هدایت میکند. هدف آن اطمینان از استفاده اخلاقی، مسئولانه و مطابق با ارزشهای اجتماعی از هوش مصنوعی است. عناصر کلیدی حکمرانی هوش مصنوعی عبارتند از:
- اصول اخلاقی: تعریف و پایبندی به استانداردهای اخلاقی برای توسعه و استفاده از هوش مصنوعی.
- مدیریت ریسک: شناسایی و کاهش ریسکهای بالقوه مرتبط با سیستمهای هوش مصنوعی، مانند سوگیری، تبعیض و نقض حریم خصوصی.
- شفافیت و پاسخگویی: اطمینان از شفافیت سیستمهای هوش مصنوعی و وجود پاسخگویی روشن برای تصمیمات و اقدامات آنها.
- انطباق: پایبندی به قوانین، مقررات و استانداردهای مربوطه.
- مشارکت ذینفعان: درگیر کردن ذینفعان، از جمله توسعهدهندگان، کاربران و عموم مردم، در فرآیند حکمرانی.
چرا حکمرانی هوش مصنوعی مهم است؟
حکمرانی مؤثر هوش مصنوعی به چند دلیل ضروری است:
- کاهش ریسکها: سیستمهای هوش مصنوعی میتوانند سوگیریهای موجود را تداوم بخشیده و تقویت کنند و منجر به نتایج ناعادلانه یا تبعیضآمیز شوند. چارچوبهای حکمرانی قوی میتوانند به شناسایی و کاهش این ریسکها کمک کنند. به عنوان مثال، نشان داده شده است که سیستمهای تشخیص چهره برای افراد رنگینپوست دقت کمتری دارند، که نگرانیهایی را در مورد استفاده از آنها در اجرای قانون ایجاد میکند. سیاستهای حکمرانی باید آزمایش و ارزیابی دقیق را برای تضمین عدالت و دقت در میان جمعیتهای گوناگون الزامی کنند.
- اعتمادسازی: شفافیت و پاسخگویی برای ایجاد اعتماد عمومی به هوش مصنوعی حیاتی است. وقتی مردم بفهمند سیستمهای هوش مصنوعی چگونه کار میکنند و چه کسی مسئول اقدامات آنهاست، احتمال بیشتری دارد که آنها را بپذیرند و از آنها استقبال کنند.
- تضمین انطباق: با رواج بیشتر مقررات هوش مصنوعی، سازمانها باید چارچوبهای حکمرانی را برای تضمین انطباق در اختیار داشته باشند. به عنوان مثال، قانون هوش مصنوعی اتحادیه اروپا الزامات سختگیرانهای را برای سیستمهای هوش مصنوعی پرخطر اعمال میکند و سازمانهایی که از آن تبعیت نکنند ممکن است با جریمههای سنگینی روبرو شوند.
- ترویج نوآوری: دستورالعملهای حکمرانی روشن میتواند با فراهم کردن یک محیط پایدار و قابل پیشبینی برای توسعه هوش مصنوعی، نوآوری را تقویت کند. وقتی توسعهدهندگان قوانین بازی را بدانند، احتمال بیشتری دارد که در فناوریهای هوش مصنوعی سرمایهگذاری کنند.
- حفاظت از حقوق بشر: سیستمهای هوش مصنوعی میتوانند بر حقوق اساسی بشر، مانند حریم خصوصی، آزادی بیان و دسترسی به عدالت تأثیر بگذارند. چارچوبهای حکمرانی باید حفاظت از این حقوق را در اولویت قرار دهند.
عناصر کلیدی یک چارچوب حکمرانی هوش مصنوعی
یک چارچوب حکمرانی قوی هوش مصنوعی باید شامل عناصر زیر باشد:۱. اصول اخلاقی
تعریف مجموعهای روشن از اصول اخلاقی، پایه و اساس هر چارچوب حکمرانی هوش مصنوعی است. این اصول باید توسعه و استقرار سیستمهای هوش مصنوعی را هدایت کرده و ارزشهای سازمان و انتظارات جامعه را منعکس کنند. اصول اخلاقی رایج عبارتند از:
- نیکوکاری: سیستمهای هوش مصنوعی باید برای منفعت بشریت طراحی شوند.
- عدم اضرار: سیستمهای هوش مصنوعی نباید باعث آسیب شوند.
- استقلال: سیستمهای هوش مصنوعی باید به استقلال و تصمیمگیری انسان احترام بگذارند.
- عدالت: سیستمهای هوش مصنوعی باید منصفانه و عادلانه باشند.
- شفافیت: سیستمهای هوش مصنوعی باید شفاف و قابل توضیح باشند.
- پاسخگویی: باید پاسخگویی روشنی برای تصمیمات و اقدامات سیستمهای هوش مصنوعی وجود داشته باشد.
مثال: بسیاری از سازمانها در حال اتخاذ دستورالعملهای اخلاق هوش مصنوعی هستند که بر عدالت و کاهش سوگیری تأکید دارند. به عنوان مثال، اصول هوش مصنوعی گوگل متعهد به اجتناب از سوگیری ناعادلانه در سیستمهای هوش مصنوعی است.
۲. ارزیابی و مدیریت ریسک
سازمانها باید ارزیابیهای ریسک کاملی را برای شناسایی ریسکهای بالقوه مرتبط با سیستمهای هوش مصنوعی خود انجام دهند. این ریسکها میتوانند شامل موارد زیر باشند:
- سوگیری و تبعیض: سیستمهای هوش مصنوعی میتوانند سوگیریهای موجود در دادهها را تداوم بخشیده و تقویت کنند و منجر به نتایج ناعادلانه یا تبعیضآمیز شوند.
- نقض حریم خصوصی: سیستمهای هوش مصنوعی میتوانند مقادیر زیادی از دادههای شخصی را جمعآوری و پردازش کنند، که نگرانیهایی را در مورد نقض حریم خصوصی ایجاد میکند.
- آسیبپذیریهای امنیتی: سیستمهای هوش مصنوعی میتوانند در برابر حملات سایبری آسیبپذیر باشند، که میتواند یکپارچگی آنها را به خطر انداخته و به عواقب ناخواسته منجر شود.
- فقدان شفافیت: درک برخی از سیستمهای هوش مصنوعی، مانند مدلهای یادگیری عمیق، میتواند دشوار باشد، که شناسایی و رسیدگی به ریسکهای بالقوه را چالشبرانگیز میکند.
- جابجایی شغلی: اتوماسیون مبتنی بر هوش مصنوعی میتواند منجر به جابجایی شغلی در صنایع خاصی شود.
پس از شناسایی ریسکها، سازمانها باید استراتژیهای مدیریت ریسک را برای کاهش آنها توسعه و اجرا کنند. این استراتژیها میتوانند شامل موارد زیر باشند:
- حسابرسی دادهها: حسابرسی منظم دادهها برای شناسایی و اصلاح سوگیریها.
- فناوریهای تقویتکننده حریم خصوصی: استفاده از تکنیکهایی مانند حریم خصوصی تفاضلی برای محافظت از دادههای شخصی.
- اقدامات امنیتی: اجرای اقدامات امنیتی قوی برای محافظت از سیستمهای هوش مصنوعی در برابر حملات سایبری.
- هوش مصنوعی قابل توضیح (XAI): توسعه سیستمهای هوش مصنوعی که شفاف و قابل توضیح هستند.
- برنامههای بازآموزی و ارتقاء مهارت: ارائه برنامههای بازآموزی و ارتقاء مهارت برای کمک به کارگران برای انطباق با بازار کار در حال تغییر.
مثال: مؤسسات مالی به طور فزایندهای از هوش مصنوعی برای کشف تقلب استفاده میکنند. با این حال، این سیستمها گاهی اوقات میتوانند موارد مثبت کاذب ایجاد کنند و به طور ناعادلانه مشتریان خاصی را هدف قرار دهند. ارزیابی ریسک باید شامل تجزیه و تحلیل پتانسیل سوگیری در الگوریتمهای کشف تقلب و اجرای اقداماتی برای به حداقل رساندن موارد مثبت کاذب باشد.
۳. شفافیت و توضیحپذیری
شفافیت و توضیحپذیری برای ایجاد اعتماد در سیستمهای هوش مصنوعی حیاتی هستند. کاربران باید بفهمند که سیستمهای هوش مصنوعی چگونه کار میکنند و چرا تصمیمات خاصی میگیرند. این امر به ویژه در کاربردهای پرمخاطره، مانند مراقبتهای بهداشتی و عدالت کیفری، مهم است.
سازمانها میتوانند با انجام موارد زیر شفافیت و توضیحپذیری را ترویج دهند:
- مستندسازی سیستمهای هوش مصنوعی: ارائه مستندات واضح از طراحی، توسعه و استقرار سیستمهای هوش مصنوعی.
- استفاده از تکنیکهای هوش مصنوعی قابل توضیح (XAI): به کارگیری تکنیکهای XAI برای قابل فهمتر کردن سیستمهای هوش مصنوعی.
- ارائه توضیحات برای تصمیمات: ارائه توضیحات روشن برای تصمیمات گرفته شده توسط سیستمهای هوش مصنوعی.
- امکان نظارت انسانی: اطمینان از وجود نظارت انسانی بر سیستمهای هوش مصنوعی، به ویژه در کاربردهای حیاتی.
مثال: در مراقبتهای بهداشتی، از هوش مصنوعی برای تشخیص بیماریها و توصیه درمانها استفاده میشود. بیماران باید بفهمند که این سیستمهای هوش مصنوعی چگونه کار میکنند و چرا درمانهای خاصی را توصیه میکنند. ارائهدهندگان مراقبتهای بهداشتی باید بتوانند منطق پشت توصیههای مبتنی بر هوش مصنوعی را توضیح دهند و اطلاعات مورد نیاز برای تصمیمگیری آگاهانه را در اختیار بیماران قرار دهند.
۴. پاسخگویی و حسابرسیپذیری
پاسخگویی و حسابرسیپذیری برای اطمینان از استفاده مسئولانه و اخلاقی از سیستمهای هوش مصنوعی ضروری هستند. باید پاسخگویی روشنی برای تصمیمات و اقدامات سیستمهای هوش مصنوعی وجود داشته باشد و سازمانها باید بتوانند سیستمهای هوش مصنوعی خود را حسابرسی کنند تا اطمینان حاصل شود که طبق برنامه عمل میکنند.
سازمانها میتوانند با انجام موارد زیر پاسخگویی و حسابرسیپذیری را ترویج دهند:
- ایجاد خطوط مسئولیت روشن: تعریف اینکه چه کسی مسئول طراحی، توسعه و استقرار سیستمهای هوش مصنوعی است.
- پیادهسازی ردپاهای حسابرسی: نگهداری ردپاهای حسابرسی از فعالیت سیستم هوش مصنوعی برای ردیابی تصمیمات و اقدامات.
- انجام حسابرسیهای منظم: انجام حسابرسیهای منظم از سیستمهای هوش مصنوعی برای اطمینان از عملکرد صحیح و انطباق با قوانین و مقررات مربوطه.
- ایجاد مکانیسمهای گزارشدهی: ایجاد مکانیسمهایی برای گزارش نگرانیها در مورد سیستمهای هوش مصنوعی.
مثال: خودروهای خودران مجهز به سیستمهای هوش مصنوعی هستند که تصمیمات حیاتی در مورد ناوبری و ایمنی میگیرند. تولیدکنندگان و اپراتورهای خودروهای خودران باید در قبال اقدامات این سیستمها پاسخگو باشند. آنها همچنین باید ملزم به نگهداری ردپاهای حسابرسی دقیق برای ردیابی عملکرد خودروهای خودران و شناسایی هرگونه مشکل ایمنی بالقوه باشند.
۵. حکمرانی دادهها
دادهها سوختی هستند که سیستمهای هوش مصنوعی را به حرکت در میآورند. حکمرانی مؤثر دادهها برای اطمینان از اینکه سیستمهای هوش مصنوعی بر روی دادههای با کیفیت بالا و بدون سوگیری آموزش دیدهاند و اینکه دادهها به روشی مسئولانه و اخلاقی استفاده میشوند، حیاتی است. عناصر کلیدی حکمرانی دادهها عبارتند از:
- کیفیت دادهها: اطمینان از اینکه دادهها دقیق، کامل و سازگار هستند.
- حریم خصوصی دادهها: حفاظت از دادههای شخصی و انطباق با مقررات مربوط به حریم خصوصی، مانند GDPR.
- امنیت دادهها: حفاظت از دادهها در برابر دسترسی و استفاده غیرمجاز.
- کاهش سوگیری دادهها: شناسایی و کاهش سوگیریها در دادهها.
- مدیریت چرخه عمر دادهها: مدیریت دادهها در طول چرخه عمر آنها، از جمعآوری تا دفع.
مثال: بسیاری از سیستمهای هوش مصنوعی بر روی دادههای جمعآوری شده از اینترنت آموزش میبینند. با این حال، این دادهها میتوانند سوگیرانه باشند و نابرابریهای اجتماعی موجود را منعکس کنند. سیاستهای حکمرانی دادهها باید استفاده از مجموعه دادههای متنوع و نماینده را برای آموزش سیستمهای هوش مصنوعی و کاهش خطر سوگیری الزامی کنند.
۶. نظارت و کنترل انسانی
در حالی که سیستمهای هوش مصنوعی میتوانند بسیاری از وظایف را خودکار کنند، حفظ نظارت و کنترل انسانی، به ویژه در کاربردهای حیاتی، مهم است. نظارت انسانی میتواند به اطمینان از استفاده مسئولانه و اخلاقی از سیستمهای هوش مصنوعی و همسویی تصمیمات آنها با ارزشهای انسانی کمک کند.
سازمانها میتوانند با انجام موارد زیر نظارت و کنترل انسانی را ترویج دهند:
- الزام به تأیید انسانی برای تصمیمات حیاتی: الزام به تأیید انسانی برای تصمیمات حیاتی که توسط سیستمهای هوش مصنوعی گرفته میشود.
- ارائه سیستمهای انسان در حلقه: طراحی سیستمهای هوش مصنوعی که به انسانها اجازه مداخله و لغو تصمیمات هوش مصنوعی را میدهد.
- ایجاد رویههای ارجاع روشن: ایجاد رویههای روشن برای ارجاع نگرانیها در مورد سیستمهای هوش مصنوعی به تصمیمگیرندگان انسانی.
- آموزش انسانها برای کار با هوش مصنوعی: ارائه آموزش به انسانها در مورد نحوه کار مؤثر با سیستمهای هوش مصنوعی.
مثال: در سیستم عدالت کیفری، از هوش مصنوعی برای ارزیابی خطر تکرار جرم و ارائه توصیههایی در مورد صدور حکم استفاده میشود. با این حال، این سیستمها میتوانند سوگیریهای نژادی را تداوم بخشند. قضات باید همیشه توصیههای ارائه شده توسط سیستمهای هوش مصنوعی را بررسی کرده و قضاوت خود را با در نظر گرفتن شرایط فردی هر پرونده اعمال کنند.
نقش سیاستگذاری هوش مصنوعی
سیاستگذاری هوش مصنوعی به مجموعه قوانین، مقررات و دستورالعملهایی اطلاق میشود که توسعه و استفاده از هوش مصنوعی را کنترل میکنند. سیاستگذاری هوش مصنوعی به سرعت در حال تحول است زیرا دولتها و سازمانهای بینالمللی با چالشها و فرصتهای ارائه شده توسط هوش مصنوعی دست و پنجه نرم میکنند.
حوزههای کلیدی سیاستگذاری هوش مصنوعی عبارتند از:
- حریم خصوصی دادهها: حفاظت از دادههای شخصی و تنظیم استفاده از دادهها در سیستمهای هوش مصنوعی.
- سوگیری و تبعیض: جلوگیری از سوگیری و تبعیض در سیستمهای هوش مصنوعی.
- شفافیت و توضیحپذیری: الزام به شفافیت و توضیحپذیری در سیستمهای هوش مصنوعی.
- پاسخگویی و مسئولیت: ایجاد پاسخگویی و مسئولیت برای اقدامات سیستمهای هوش مصنوعی.
- ایمنی هوش مصنوعی: تضمین ایمنی سیستمهای هوش مصنوعی و جلوگیری از آسیب رساندن آنها.
- توسعه نیروی کار: سرمایهگذاری در آموزش و پرورش برای آمادهسازی نیروی کار برای اقتصاد مبتنی بر هوش مصنوعی.
- نوآوری: ترویج نوآوری در هوش مصنوعی ضمن کاهش ریسکها.
ابتکارات جهانی سیاستگذاری هوش مصنوعی
چندین کشور و سازمان بینالمللی ابتکاراتی را برای توسعه چارچوبهای سیاستگذاری هوش مصنوعی راهاندازی کردهاند.
- اتحادیه اروپا: قانون هوش مصنوعی اتحادیه اروپا یک چارچوب نظارتی جامع است که هدف آن تنظیم سیستمهای هوش مصنوعی پرخطر است. این قانون سیستمهای هوش مصنوعی را بر اساس سطح ریسک آنها طبقهبندی میکند و الزامات سختگیرانهای را برای سیستمهای پرخطر، مانند سیستمهای مورد استفاده در زیرساختهای حیاتی، آموزش و اجرای قانون، اعمال میکند.
- ایالات متحده: ایالات متحده رویکردی بخشیتر به تنظیم هوش مصنوعی اتخاذ کرده و بر حوزههایی مانند وسایل نقلیه خودران و مراقبتهای بهداشتی تمرکز کرده است. موسسه ملی استاندارد و فناوری (NIST) یک چارچوب مدیریت ریسک برای هوش مصنوعی توسعه داده است.
- چین: چین سرمایهگذاری سنگینی در تحقیق و توسعه هوش مصنوعی کرده و دستورالعملهایی را در مورد حکمرانی اخلاقی هوش مصنوعی صادر کرده است. رویکرد چین بر اهمیت هوش مصنوعی برای توسعه اقتصادی و امنیت ملی تأکید دارد.
- OECD: سازمان همکاری و توسعه اقتصادی (OECD) مجموعهای از اصول هوش مصنوعی را توسعه داده است که هدف آن ترویج هوش مصنوعی مسئولانه و قابل اعتماد است. این اصول حوزههایی مانند ارزشهای انسانمحور، شفافیت و پاسخگویی را پوشش میدهند.
- یونسکو: یونسکو توصیهنامهای در مورد اخلاق هوش مصنوعی را به تصویب رسانده است که یک چارچوب جهانی برای توسعه و استقرار اخلاقی هوش مصنوعی فراهم میکند.
چالشها در حکمرانی و سیاستگذاری هوش مصنوعی
توسعه چارچوبهای مؤثر حکمرانی و سیاستگذاری هوش مصنوعی چندین چالش را به همراه دارد:
- پیشرفتهای سریع فناوری: فناوری هوش مصنوعی به سرعت در حال تحول است و این امر همگام شدن سیاستگذاران را دشوار میکند.
- فقدان اجماع در مورد اصول اخلاقی: توافق جهانی در مورد اصول اخلاقی برای هوش مصنوعی وجود ندارد. فرهنگها و جوامع مختلف ممکن است ارزشها و اولویتهای متفاوتی داشته باشند.
- در دسترس بودن و کیفیت دادهها: دسترسی به دادههای با کیفیت بالا و بدون سوگیری برای توسعه سیستمهای مؤثر هوش مصنوعی ضروری است. با این حال، به دست آوردن دادهها میتواند دشوار باشد و ممکن است حاوی سوگیری باشد.
- اجرا: اجرای مقررات هوش مصنوعی میتواند چالشبرانگیز باشد، به ویژه در دنیای جهانی شده.
- ایجاد توازن بین نوآوری و مقررات: ایجاد توازن بین ترویج نوآوری در هوش مصنوعی و تنظیم ریسکهای آن مهم است. مقررات بیش از حد محدودکننده میتواند نوآوری را خفه کند، در حالی که مقررات سهلانگارانه میتواند به عواقب ناخواسته منجر شود.
بهترین شیوهها برای حکمرانی و سیاستگذاری هوش مصنوعی
سازمانها و دولتها میتوانند بهترین شیوههای زیر را برای ترویج توسعه و استقرار مسئولانه و اخلاقی هوش مصنوعی اتخاذ کنند:
- ایجاد یک تیم حکمرانی هوش مصنوعی چندوظیفهای: ایجاد تیمی با نمایندگانی از بخشهای مختلف مانند حقوقی، اخلاق، مهندسی و کسبوکار برای نظارت بر حکمرانی هوش مصنوعی.
- توسعه یک چارچوب حکمرانی جامع هوش مصنوعی: توسعه یک چارچوب که اصول اخلاقی، استراتژیهای مدیریت ریسک، اقدامات شفافیت و پاسخگویی و سیاستهای حکمرانی دادهها را مشخص میکند.
- انجام ارزیابیهای منظم ریسک: ارزیابی منظم ریسکهای مرتبط با سیستمهای هوش مصنوعی و اجرای استراتژیهای کاهش.
- ترویج شفافیت و توضیحپذیری: تلاش برای شفاف و قابل توضیح کردن سیستمهای هوش مصنوعی.
- اطمینان از نظارت انسانی: حفظ نظارت انسانی بر سیستمهای هوش مصنوعی، به ویژه در کاربردهای حیاتی.
- سرمایهگذاری در آموزش اخلاق هوش مصنوعی: ارائه آموزش به کارمندان در مورد اخلاق هوش مصنوعی و توسعه مسئولانه آن.
- تعامل با ذینفعان: تعامل با ذینفعان، از جمله کاربران، توسعهدهندگان و عموم مردم، برای جمعآوری بازخورد و رسیدگی به نگرانیها.
- آگاهی از تحولات سیاستگذاری هوش مصنوعی: بهروز ماندن در مورد آخرین تحولات سیاستگذاری هوش مصنوعی و تطبیق چارچوبهای حکمرانی بر اساس آن.
- همکاری با همتایان صنعتی: همکاری با سایر سازمانها در صنعت برای به اشتراک گذاشتن بهترین شیوهها و توسعه استانداردهای مشترک.
آینده حکمرانی و سیاستگذاری هوش مصنوعی
حکمرانی و سیاستگذاری هوش مصنوعی با پیشرفت فناوری هوش مصنوعی و تعمیق درک جامعه از پیامدهای آن، به تکامل خود ادامه خواهد داد. روندهای کلیدی که باید مراقب آنها بود عبارتند از:
- افزایش مقررات: دولتها در سراسر جهان احتمالاً مقررات مربوط به هوش مصنوعی را، به ویژه در حوزههای پرخطر، افزایش خواهند داد.
- استانداردسازی: تلاشها برای توسعه استانداردهای بینالمللی برای حکمرانی هوش مصنوعی احتمالاً شتاب خواهد گرفت.
- تمرکز بر هوش مصنوعی قابل توضیح: تمرکز بیشتری بر توسعه سیستمهای هوش مصنوعی که شفاف و قابل توضیح هستند، وجود خواهد داشت.
- تأکید بر هوش مصنوعی اخلاقی: ملاحظات اخلاقی در توسعه و استقرار هوش مصنوعی اهمیت فزایندهای خواهند یافت.
- آگاهی عمومی بیشتر: آگاهی عمومی از ریسکها و مزایای بالقوه هوش مصنوعی به رشد خود ادامه خواهد داد.
نتیجهگیری
حکمرانی و سیاستگذاری هوش مصنوعی برای اطمینان از استفاده مسئولانه، اخلاقی و مطابق با ارزشهای اجتماعی از هوش مصنوعی حیاتی است. با اتخاذ چارچوبهای حکمرانی قوی و آگاهی از تحولات سیاستگذاری، سازمانها و دولتها میتوانند از قدرت هوش مصنوعی برای منفعت بشریت بهرهمند شوند و در عین حال ریسکهای آن را کاهش دهند. با ادامه تکامل هوش مصنوعی، ترویج یک رویکرد مشارکتی و فراگیر به حکمرانی و سیاستگذاری، با درگیر کردن ذینفعان از پیشینهها و دیدگاههای مختلف، ضروری است. این امر به اطمینان از اینکه هوش مصنوعی به نفع تمام بشریت است و به جهانی عادلانهتر و منصفانهتر کمک میکند، یاری خواهد رساند.