ترس سیاست گذاران آمریکایی از هوش مصنوعی - افق اقتصادی

ترس سیاست گذاران آمریکایی از هوش مصنوعی - افق اقتصادی
شنبه, ۲۶ آبان ۱۴۰۳ / قبل از ظهر / | 2024-11-16
کد خبر: 241518 |
تاریخ انتشار : ۱۶ اردیبهشت ۱۴۰۳ - ۱۴:۵۴ |
158 بازدید
۰
4
ارسال به دوستان
پ

رژیمی جدید از قوانین و مقررات به نام «ایمنی هوش مصنوعی» به جای استفاده از پتانسیل مثبت هوش مصنوعی وعده این فناوری را تهدید می کند.

ترس سیاست گذاران آمریکایی از هوش مصنوعی

بازار؛ گروه بین الملل: سایت تحلیلی نشنال اینترست اخیرا مقاله ای با قلم «دکتر کیگان مک براید»، مدرس هوش مصنوعی، دولت و سیاست در موسسه اینترنت آکسفورد در مورد هوش مصنوعی منتشر کرده است. ترجمه متن مقاله در ادامه می آید. دانشگاه های آمریکا سرشار از موفقیت در توسعه علمی و فناوری بوده و نوآوری آمریکایی کیفیت زندگی را برای میلیاردها نفر در سراسر جهان بهبود بخشیده و دوره جدیدی از شکوفایی اقتصادی را تقویت کرده است. به پشتوانه جاه طلبی آمریکا، بشریت جو زمین را ترک کرده، روی ماه قدم گذاشته و به زودی به مریخ سفر خواهد کرد. دنیای دیجیتال امروزی به اینترنت متکی است که خود محصول نوآوری و رهبری آمریکاست. اگر پیشرفتی را می بینید، مطمئناً فناوری آمریکایی در آن نقش دارد. نوآوری آمریکایی یک بار دیگر فناوری جدید – هوش مصنوعی (AI) – ارائه کرده که توجه جهان را به خود جلب کرده است. سیستم های پیشرفته مبتنی بر هوش مصنوعی وابسته به مالکیت معنوی، سرمایه، زیرساخت ها و علم آمریکا پتانسیل تحول مثبت هوش مصنوعی را به دنیا نشان داده اند. آنچه زمانی حوزه‌ای حاشیه‌ای از تحقیقات دانشگاهی بود، اکنون به یک موضوع اصلی در گفتگوهای جهانی تبدیل شده است. متأسفانه به جای استفاده از پتانسیل مثبت هوش مصنوعی، رژیم جدیدی از قوانین و مقررات در پاسخ به مواضعی که توسط یک لابی کوچک، تأثیرگذار و با بودجه خوب به نام «ایمنی هوش مصنوعی» حمایت می شود، به طور فعال از بروز این مزایا جلوگیری می کند.

ابتکارات نظارتی جدیدی که توسط لابی ایمنی هوش مصنوعی ایجاد شده به شدت تحت تأثیر ترس مشترک از هوش مصنوعی قرار گرفته است

ابتکارات نظارتی جدیدی که توسط لابی ایمنی هوش مصنوعی ایجاد شده به شدت تحت تأثیر ترس مشترک از هوش مصنوعی قرار گرفته است. چنین پیشنهادهایی شامل ایجاد مؤسسات ایمنی جدید هوش مصنوعی در ایالات متحده آمریکا و انگلیس است. آنها همچنین شامل دستور اجرایی جدید منتشر شده در مورد توسعه ایمن و قابل اعتماد و استفاده از هوش مصنوعی هستند که تحت تأثیر یک اتاق فکر همسو با ایمنی هوش مصنوعی قرار گرفته است. این تلاش‌ها و سایر تلاش‌های نظارتی مرتبط قصد تمرکز و کنترل توسعه و در دسترس بودن سیستم‌های مبتنی بر هوش مصنوعی را دارند، با این باور که این امر سطوح بالاتری از ایمنی را فراهم می‌کند. این طرز فکر کاملا اشتباه است. از آنجایی که سیاست‌گذاران با داستان‌هایی در مورد پتانسیل هوش مصنوعی برای برهم زدن دموکراسی و فرآیندهای انتخاباتی، پتانسیل هوش مصنوعی برای برهم زدن بازار کار یا تهدید بالقوه «وجودی» هوش مصنوعی برای جهان ما بمباران می‌شوند، به راحتی می‌توان درک کرد که چرا بحث ایمنی هوش مصنوعی حمایت می‌شود. در حالی که این ترس‌ها در حال حاضر بر بحث‌های جریان اصلی غالب هستند، اما معمولاً در واقعیت اینطور نیست. «نیک کلگ»، رئیس امور جهانی متا اخیراً اعلام کرد که نه تنها به نظر نمی رسد که هوش مصنوعی به طور قابل توجهی بر فرآیندهای دموکراتیک تأثیر بگذارد یا آنها را تضعیف کند، بلکه به بازیگران فناوری در دفاع از انتخابات آزاد و منصفانه نیز کمک می کند. این یافته مطابق با تحقیقات آکادمیک است – بسیاری از نگرانی ها در مورد توانایی هوش مصنوعی برای ایجاد اطلاعات نادرست بیش از حد اغراق آمیز است.

به نظر می رسد هوش مصنوعی تأثیر مثبت و توانمندی دارد، به ویژه برای کسانی که در پایین ترین سطح مهارت هستند

در حالی که این نگرانی وجود دارد که هوش مصنوعی ممکن است بازار کار را مختل کند و مشاغل را به طور خودکار از بین ببرد، به نظر نمی رسد که این موارد نیز توسط هیچ شواهد تجربی پشتیبانی شوند. در عوض، به نظر می رسد هوش مصنوعی تأثیر مثبت و توانمندی دارد، به ویژه برای کسانی که در پایین ترین سطح مهارت هستند. برای جامعه ایمنی هوش مصنوعی، نگرانی اصلی خطر وجودی فرضی ناشی از هوش مصنوعی است. آنها این نگرانی را بدون هیچ دلیل منطقی می گویند. علاوه بر این بسیاری از دانشمندان برجسته هوش مصنوعی، مانند Yann Lecunn، این احساس خطر را مضحک دانسته اند. اگرچه هوش مصنوعی مستقیماً خطری وجودی نیست، بسیاری نگرانی‌های بالقوه امنیت ملی ناشی از پیشرفت‌های هوش مصنوعی مانند کمک به ایجاد سلاح‌های زیستی جدید را برجسته کرده‌اند. اگرچه این پیشرفت ها نگران کننده است اما بسیاری از بحث ها این واقعیت را نادیده می گیرند که تحقیقات نشان می دهد احتمال ایجاد این خطرات بعید است.

هوش مصنوعی همچنان نقشی کلیدی در تعریف جهان ما و نحوه عملکرد آن ایفا می کند

با تکیه بر این ترس ها اگرچه با شواهد کمی پشتیبانی می شوند، تلاش لابی ایمنی هوش مصنوعی به طور قابل توجهی موفقیت آمیز بوده و به موفقیت اولیه در کاهش سرعت و محدود کردن توسعه و انتشار هوش مصنوعی دست یافته است. نتایج این امر به ضرر مردم آمریکاست. با این حال شاید حتی نگران‌کننده‌تر، خطری است که برای رهبری فناوری آمریکا و در نتیجه امنیت ملی ایجاد می‌کند. از آنجایی که نوآوری هوش مصنوعی آمریکایی متوقف شده است، به رقبای ما فرصت های جدیدی برای به چالش کشیدن یا پیشی گرفتن از توانایی های داخلی ما داده می شود. نباید اجازه داد که این اتفاق رخ دهد. از آنجایی که هوش مصنوعی همچنان نقشی کلیدی در تعریف جهان ما و نحوه عملکرد آن ایفا می کند، ضروری است تا قبل از اینکه خیلی دیر شود، مداخله کنیم و به استدلال های ناقص و خطرناک لابی ایمنی هوش مصنوعی رسیدگی کنیم. ما باید اطمینان حاصل کنیم که پایه های نوآوری هوش مصنوعی آمریکا از توانایی آن برای ایجاد ارزش و رفاه برای جامعه آمریکا پشتیبانی می کند.

✅ آیا این خبر اقتصادی برای شما مفید بود؟ امتیاز خود را ثبت کنید.
[کل: ۰ میانگین: ۰]
نویسنده: 
لینک کوتاه خبر:
×
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم افق اقتصادی در وب سایت منتشر خواهد شد
  • پیام‌هایی که حاوی توهین، افترا و یا خلاف قوانین جمهوری اسلامی ایران باشد منتشر نخواهد شد.
  • لازم به یادآوری است که آی‌پی شخص نظر دهنده ثبت می شود و کلیه مسئولیت‌های حقوقی نظرات بر عهده شخص نظر بوده و قابل پیگیری قضایی میباشد که در صورت هر گونه شکایت مسئولیت بر عهده شخص نظر دهنده خواهد بود.
  • لطفا از تایپ فینگلیش بپرهیزید. در غیر اینصورت دیدگاه شما منتشر نخواهد شد.
  • نظرات و تجربیات شما

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    نظرتان را بیان کنید