سفارش تبلیغ
صبا ویژن

تازه های هوش مصنوعی حل تکالیف

تولید کنندگان و طراحان نرم افزار خود را در هوش مصنوعی حل تکالیف مضیقه قابل توجهی نسبت به سایر نقاط جهان قرار می دهد.

 

منطقی‌تر است که در مورد اهداف گسترده مورد نظر در هوش مصنوعی فکر کنیم و سیاست‌هایی را وضع کنیم که آن‌ها را پیش می‌برد، برخلاف دولت‌هایی که سعی می‌کنند «ج هوش مصنوعی حل تکالیف عبه‌های سیاه» را باز کنند و دقیقاً ببینند الگوریتم‌های خاص چگونه عمل می‌کنند. تنظیم الگوریتم های فردی نوآوری را محدود می کند و استفاده از هوش مصنوعی را برای شرکت ها دشوار می کند.

 

تعصبات را جدی بگیرید

تعصب و تبعیض مسائل جدی برای هوش مصنوعی  هوش مصنوعی حل تکالیف است. قبلاً تعدادی از موارد رفتار ناعادلانه مرتبط با داده های تاریخی وجود داشته است، و باید اقدامات لازم را انجام داد تا اطمینان حاصل شود که این رفتار در هوش مصنوعی رایج نمی شود. قوانین موجود حاکم بر تبعیض در اقتصاد فیزیکی باید به پلتفرم‌های دیجیتال گسترش یابد. این به محافظت از مصرف کنندگان و ایجاد اعتماد در کل این سیستم ها کمک می کند.

 

برای اینکه این پیشرفت ها به طور گسترده مورد پذیرش هوش مصنوعی حل تکالیف  قرار گیرند، شفافیت بیشتری در نحوه عملکرد سیستم های هوش مصنوعی مورد نیاز است. اندرو برت از Immuta استدلال می کند، "مشکل کلیدی در مواجهه با تجزیه و تحلیل پیش بینی کننده واقعا شفافیت است. ما در دنیایی هستیم که عملیات علم داده وظایف مهم‌تری را بر عهده می‌گیرد و تنها چیزی که مانع از آن می‌شود این است که دانشمندان داده‌ای که مدل‌ها را آموزش می‌دهند تا چه حد می‌توانند توضیح دهند که مدل‌هایشان چه می‌کنند.»

 

حفظ مکانیسم های نظارت و کنترل انسانی

برخی افراد استدلال کرده‌اند که باید راه‌هایی وجود  هوش مصنوعی حل تکالیف داشته باشد تا انسان‌ها بتوانند بر سیستم‌های هوش مصنوعی نظارت و کنترل کنند. به عنوان مثال، اورن اتزیونی، مدیر عامل موسسه آلن برای هوش مصنوعی، استدلال می‌کند که باید قوانینی برای تنظیم این سیستم‌ها وجود داشته باشد. او می‌گوید اولاً، هوش مصنوعی باید توسط تمام قوانینی که قبلاً برای رفتارهای انسانی تدوین شده‌اند، از جمله مقررات مربوط به «قلدری سایبری، دستکاری سهام یا تهدیدات تروریستی» و همچنین «به دام انداختن افراد در ارتکاب جنایت» کنترل شود. دوم، او معتقد است که این سیستم ها باید افشا کنند که سیستم های خودکار هستند و نه انسان. سوم، او بیان می‌کند: «یک A.I. سیستم نمی تواند اطلاعات  هوش مصنوعی حل تکالیف محرمانه را بدون تأیید صریح منبع آن اطلاعات حفظ یا افشا کند.» 67 منطق او این است که این ابزارها داده های زیادی را ذخیره می کنند که مردم باید از خطرات حریم خصوصی ناشی از هوش مصنوعی آگاه باشند.

 

در همین راستا، IEEE Global Initiative دستورالعمل‌های اخلاقی برای هوش مصنوعی و سیستم‌های مستقل دارد. کارشناسان آن پیشنهاد می کنند که این مدل ها با در نظر گرفتن هنجارها و  هوش مصنوعی حل تکالیف قواعد پذیرفته شده انسانی برای رفتار برنامه ریزی شوند. الگوریتم‌های هوش مصنوعی باید اهمیت این هنجارها، نحوه حل تعارض هنجارها و راه‌هایی را که این سیستم‌ها می‌توانند در مورد حل هنجارها شفاف باشند را در نظر بگیرند. به گفته کارشناسان اخلاق، طرح‌های نرم‌افزار باید برای «فریب‌نکردن» و «صداقت» برنامه‌ریزی شوند. هنگامی که شکست رخ می دهد، باید مکانیسم های کاهش برای مقابله با عواقب وجود داشته باشد. به ویژه، هوش مصنوعی باید نسبت به مشکلاتی مانند تعصب، تبعیض و انصاف حساس باشد.68

 

گروهی از کارشناسان یادگیری ماشین ادعا می‌کنند که می‌توان تصمیم‌گیری اخلاقی را خودکار کرد. با استفاده از مشکل ترولی به عنوان یک معضل اخلاقی، آنها این سوال را مطرح می کنند: اگر یک خودروی خودران از کنترل خارج شود، آیا باید برای کشتن مسافران خود یا عابران پیاده ای که در حال عبور هوش مصنوعی حل تکالیف  از خیابان هستند برنامه ریزی شود؟ آنها یک "سیستم مبتنی بر رای" ابداع کردند که از 1.3 میلیون نفر خواسته شد تا سناریوهای جایگزین را ارزیابی کنند، انتخاب های کلی را خلاصه کرده و دیدگاه کلی این افراد را برای طیف وسیعی از احتمالات وسایل نقلیه اعمال کنند. این به آن‌ها اجازه داد تا تصمیم‌گیری اخلاقی را در الگوریتم‌های هوش مصنوعی، با در نظر گرفتن ترجیحات آموزش برنامه نویسی کودکان و نوجوانان عمومی، خودکار کنند.69 البته، این رویه، فاجعه‌ای که در هر نوع مرگ‌باری وجود دارد، مانند مورد اوبر را کاهش نمی‌دهد، اما مکانیزمی را فراهم می‌کند تا به توسعه دهندگان هوش مصنوعی کمک کنید تا ملاحظات اخلاقی را در برنامه ریزی خود لحاظ کنند.

 

رفتارهای مخرب را مجازات کنید و امنیت سایبری را ارتقا دهید

مانند هر فن آوری نوظهور، مهم است که از درمان مخربی که برای فریب دادن نرم افزار یا استفاده از آن برای اهداف نامطلوب طراحی شده است، جلوگیری شود.70 این امر به ویژه با توجه به جنبه های استفاده دوگانه هوش مصنوعی، که در آن ابزار مشابه می تواند برای اهداف سودمند یا مخرب استفاده شود، اهمیت دارد. . استفاده بدخواهانه از هوش مصنوعی افراد و سازمان ها را در معرض خطرات غیرضروری قرار می دهد و فضایل فناوری نوظهور را تضعیف می کند. این شامل رفتارهایی مانند هک کردن، دستکاری الگوریتم ها، به خطر انداختن حریم خصوصی و هوش مصنوعی حل تکالیف  محرمانگی یا سرقت هویت می شود. تلاش برای ربودن هوش مصنوعی به منظور کسب اطلاعات محرمانه باید به‌عنوان راهی برای جلوگیری از چنین اقداماتی به‌طور جدی مجازات شود.

 

در دنیایی که به سرعت در حال تغییر است و بسیاری از نهادها دارای قابلیت‌های محاسباتی پیشرفته هستند، باید به امنیت سایبری توجه جدی شود. کشورها باید مراقب باشند تا از سیستم های خود محافظت کنند و سایر کشورها را از آسیب رساندن به امنیت آنها دور نگه دارند.72 طبق گزارش وزارت امنیت Artificial intelligence to solve homework  داخلی ایالات متحده، یک بانک بزرگ آمریکایی هفته ای حدود 11 میلیون تماس در مرکز خدمات خود دریافت می کند. در یا