دبیر کل سازمان ملل :هوش مصنوعی، خطر بالقوهای در حد بمب هستهای است
تاریخ انتشار: ۱۲ مرداد ۱۴۰۲ | کد خبر: ۳۸۳۷۴۶۳۷
خبرگزاری آریا-دبیر کل سازمان ملل متحد انفجار هوش مصنوعی را در حد بمب هستهای دانست، از کارشناسان خواست وارد عمل شوند و آن را تهدید وجودی برای بشریت اعلام کنند، زیرا کمتر از تهدید جنگ هستهای نیست.
به گزارش خبرگزاری آریا، آینده متعلق به هوش مصنوعی و امروز نیز این شاخه گسترده از علم در حال نفوذ در تک تک زوایای زندگی بشری است، اما در حدود دو سال آینده باید منتظر تغییر و تحولات شگرفی در این عرصه بود، تا جایی که ماشین های هوشمند و ربات ها از سویی حتی جزئی ترین کارهای روزمره آدم ها را متقبل شده اند و از سوی دیگر تا تولید سلاح و جنگ افزار به وسیله برخی دولت ها و نقض قوانین و جنگ های نه چندان خوشایند آینده پیش می روند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
هرچند هوش مصنوعی با اهداف ساده ای همچون حل مشکلات جامعه بشری و تصمیم گیری های مختلف در زندگی روزمره پدید آمد، اما قابلیت های این علم تا حدی است که وحشت جامعه بین المللی از بهره گیری های خارج از روال و به عبارتی زیر پا گذاردن قوانین بشری و زوایای پیدا و پنهان آن را به دنبال داشته است.
آنتونیو گوترش، دبیر کل سازمان ملل متحد با هشدار اینکه استفاده مخرب از سامانههای هوش مصنوعی میتواند باعث ایجاد مرگ و ویرانیهای وحشتناک شود، گفت: استفاده نامناسب از هوش مصنوعی برای اهداف تروریستی، مجرمانه یا دولتی «آسیبهای عمیق روانشناختی» به دنبال دارد.
وی عنوان کرد، حملات سایبری که به وسیله هوش مصنوعی تقویت شدهاند، هم اکنون در حال هدف قرار دادن عملیاتهای انساندوستانه سازمان ملل متحد هستند.
چرا شورای امنیت سازمان ملل متحد از تقویت هوش مصنوعی در عرصه های مختلف می هراسد و به دنبال وضع قوانینی برای کنترل آن است؟ همان واهمه ای که ایلان ماسک، به عنوان سرمایه گذار اصلی هوش مصنوعی که حتی در حال پیش بردن پروژه ساخت تراشه های مصنوعی برای کنترل ذهن آدم هاست، چندی پیش از آن سخن گفته بود.
نهادی برای مقابله
گوترش خواستار ایجاد نهاد جدیدی در سازمان ملل متحد برای مقابله با خطرات ناشی از هوش مصنوعی شد و گفت: هدف کلی این نهاد حمایت از کشورها برای به حداکثر رساندن مزایای هوش مصنوعی، تعدیل مخاطرات احتمالی فعلی و اجرا کردن ساز و کارهای مورد توافق بینالمللی برای نظارت و حکمرانی خواهد بود.
قانونگذاران اروپایی و سازمانی تحت حمایت ایلان ماسک نیز که در تهیه پیش نویس قانون هوش مصنوعی اتحادیه اروپا مشارکت دارند، ازجمله سازمان هایی هستند که از رهبران جهان خواسته اند برای یافتن راه هایی برای جلوگیری از ایجاد اختلال در هوش مصنوعی پیشرفته همکاری کنند.
خطری بزرگ
دبیرکل سازمان ملل متحد انفجار هوش مصنوعی را در حد بمب هسته ای دانست و گفت: از کارشناسان میخواهم وارد عمل شوند و هوش مصنوعی را تهدیدی وجودی برای بشریت اعلام کنند که کمتر از تهدید جنگ هستهای نیست.
به باور دانشمندان و حقایق علمی، علوم و جنگهای شناختی که بر پایه علومی نظیر اعصاب، روان شناسی، زبان شناسی و فلسفه ذهن تشکیل شده اند، می توانند با بهره گیری از هوش مصنوعی خطرات بسیاری در حد نابودی بشریت به دنبال داشته باشد.
هرچند هوش مصنوعی می تواند در راستای تکامل و رشد انسانیت بهره برداری شود، ولی اگر با رعایت اصول اخلاقی- انسانی همراه نباشد، می تواند به سلاحی کشنده و تهدید کننده بشریت تبدیل شود؛ چنانچه به عنوان سلاح های شناختی برای تغییر رفتار، فرهنگ، سبک زندگی و تمامی شئون زندگی سایبری بشر استفاده می شود.
کشورهای متخاصم و تروریستی و نیز رژیم صهیونیستی می توانند از جنبه های منفی علمی هوش مصنوعی با اهداف کاملاً ضد بشری و جنگ افروزی بهره برداری کنند، لذا سازمان ملل متحد به وحشت افتاده و سبب هشدارهای پیاپی این نهاد بین المللی شده است.
سازمان ملل متحد خطر هوش مصنوعی خارج از کنترل را در حد بمب هسته ای دانسته است، بمبی که از اساس ریشه و بنیاد همه هستی را به هم می ریزد و راهی برای مقابله جامعه هدف نمی گذارد، لذا باید هوش مصنوعی زیر نظر نهاد و سازمانی رسمی و بر مبنای قوانینی مدون کنترل شود.
اگر کنترل انجام نشود، کشورهایی مانند آمریکا که پیش تر در زمینه تسلیحات اتمی پا را از قوانین بشری فراتر گذاشته بودند، بار دیگر به دنبال اهداف شوم خود خواهند رفت.
غولهای تکنولوژی برای جلوگیری از خطرات هوش مصنوعی تعهد دادند
یک سالی است که جهان پس از عرضه ChatGPT با غول بزرگی به نام هوش مصنوعی و قابلیتهای فراوان آشنا شده و از همان ابتدای کار بسیاری بر خطرات متعدد و لزوم اقدام فوری مسئولان و شرکتهای ارائه دهنده تاکید کردهاند. با این حال دو رویکرد متفاوت را در نیم کره غربی نسبت به AI شاهد هستید، با اینکه اتحادیه اروپا بازهم در قانونگذاری پیشتاز جهان شده و به تعبیر ناظران سختترین قوانین را پیشنهاد کرده اما در ایالات متحده، منزلگاه بزرگترین شرکتهای هوش مصنوعی، شرایط متفاوت است. غولهای آمریکایی به تازگی تعهداتی داوطلبانه را به دولت آمریکا ارائه کردهاند.
رویکرد متفاوت اتحادیه اروپا و ایالات متحده نسبت به قانونگذاری و تنظیمگری شرکتهای تکنولوژی و دیگر فعالان صنعتی شاید یکی از عواملی است که در کنار موضوعاتی مثل نیروی کار ماهر، مالیات و دسترسی به منابع عظیم سرمایه باعث پیشتازی آمریکا به خصوصی در حوزه تکنولوژی شده است.
به طور کلی قانونگذاران قاره سبز سریعتر و سختگیرانهتر از همتایان آمریکایی خود عمل میکنند و قوانین جامع اتحادیه اروپا در حوزه حریم خصوصی و محافظت از داده یکی از مقرراتی است که تنها در یک مورد به جریمه 1.3 میلیارد دلاری برای فیسبوک منتهی شد.
اتحادیه اروپا همچنین کاملترین قانون هوش مصنوعی را نیز معرفی کرده و انتظار میرود این قانون که طرح اولیه آن سال 2021 پیشنهاد شد تا پایان سال 2023 به تصویب برسد.
اما در آن سوی اقیانوس هنوز قانون جامع و فدرالی برای تنظیمگری هوش مصنوعی وجود ندارد و مقرراتی در حوزه حریم خصوصی، محافظت از داده و جلوگیری از تبعیض هرکدام به نحوی جوانب مختلف AI را زیر چتر خود میگیرند. در تازهترین تحولات شرکتهای تکنولوژی تعهداتی داوطلبانه را به کاخ سفید ارائه کردهاند و هدف جلوگیری از خطرات و تبعات منفی هوش مصنوعی است که در ادامه این تعهدات هشتگانه را بررسی میکنیم.
به روایت نیویورک تایمز، بزرگترین ارائه دهندگان محصولات هوش مصنوعی (آمازون، آنتروپیک، گوگل، اینفلکشن، متا، مایکروسافت و اوپنایآی)، متعهد شدهاند که:
1. پیش از عرضه سیستمهای هوش مصنوعی آزمون امنیت داخلی و خارجی انجام دهند
تعهد آزمایش و آزمون امنیتی چیز جدیدی نیست و هرکدام از این شرکتها پیش از این هم به چنین اقداماتی متعهد شده بودند. از یک سو تعهد جدیدی ارائه نشده و افزون بر این وعده شرکتها مبهم است. جزئیات چندانی درمورد الزامات آزمون یا مسئول آن ارائه نشده است.
در بیانیهای که همراه با تعهدات منتشر شده کاخ سفید تنها تصریح میکند که «بخشی [از آزمایش مدلهای هوش مصنوعی] توسط متخصصان مستقل انجام میگیرد» و تمرکز این آزمونها بر خطراتی «همچون امنیت زیستی و امنیت سایبری است و تبعات گستردهتر اجتماعی را نیز شامل میشود.»
2. اطلاعات مربوط به مدیریت خطرات هوش مصنوعی را در تمام صنعت و با دولت، جامعه مدنی و آکادمیک به اشتراک بگذارند
تعهد دوم هم تا حدی مبهم است. بعضی از شرکتها پیشتر اطلاعاتی را درمورد مدلهای هوش مصنوعی خود-عمدتا به صورت مقالات آکادمیک یا پستهای وبلاگی-منتشر کردهاند. از جمله میتوان به اوپنایآی و آنتروپیک اشاره کرد که مستنداتی به نام «کارتهای سیستم» را منتشر کردهاند و در آن به توصیف اقداماتشان برایر افزایش امنیت مدلها پرداختهاند.
اما در برخی موارد هم بعضی اطلاعات عرضه نشده و نگرانیهایی را در پی داشته است. اوپنایآی با عرضه مدل هوش مصنوعی GPT-4 به نوعی سنت شکنی کرد و اطلاعات مربوط به مقدار دادههای آموزشی یا گستره این مدل (پارامترهای آن) را مخفی نگه داشت. اوپنایآی گفته بود که به دلیل نگرانیهای رقابتی و ایمنی چنین اطلاعاتی را منتشر نکرده است.
3. در امنیت سایبری و مراقبتهای داخلی برای حفاظت از معیارها اختصاصی و منتشر نشده مدل سرمایهگذاری کنند
این تعهد از نگاه فعالان هوش مصنوعی روشنتر است و جای بحث کمتری دارد. «معیارهای مدل» به معنی دستورالعملهای ریاضی است که به مدلهای هوش مصنوعی امکان فعالیت میدهد. جاسوسان یا کسانی که مثلا به دنبال کپی کردن ChatGPT هستند برای سرقت همین معیارها تلاش میکنند و کنترل آنها به نفع شرکتها است.
پیشتر مشکلاتی در همین حوزه رخ داده که از جمله میتوان به نشت اطلاعات مدل هوش مصنوعی شرکت متا اشاره کرد. این اطلاعات چند روز پس عرضه مدل در وبسایت 4chan و دیگر وبسایتها منتشر شد. با توجه به خطرات ناشی از انتشار چنین اطلاعاتی، چنین تعهدی منطقی به نظر میرسد.
4. کشف و گزارش نقاط ضعف سیستمهای AI توسط شخص ثالث را تسهیل کنند
مفهوم این تعهد چندان روشن نیست. شرکتهای هوش مصنوعی پیش از این هم پس از عرضه محصولاتشان، آنهم به دلیل تلاش دیگران برای سو استفاده و دور زدن محدودیتها، نقاط ضعفی را شناسایی کردهاند.
با این حال این تعهد از شرکتها میخواهد تا «مکانیزم گزارش قدرتمندی» را ایجاد کنند تا بتوان نقاط ضعف را گزارش داد. مشخص نیست که منظور از این مکانیزم چیست و آیا منظور یک دکمه درون اپلیکیشنی همچون گزینه گزارش فیسبوک و توییتر است یا طرحهای پاداشی که در ازای کشف نقطه ضعف جایزه میدهند یا چیز دیگری.
5. مکانیزمهای فنی قدرتمندی برای تضمین اطلاع رسانی درمورد محتوای تولیدی هوش مصنوعی از جمله یک سیستم واترمارک ارائه کنند
تا به اینجا شرکتهای هوش مصنوعی نتوانستند ابزاری را برای شناسایی دقیق محتوای تولید شده توسط هوش مصنوعی ایجاد کنند. دلایل فنی زیادی برای ضعف در این حوزه وجود دارد و درنتیجه کاربران میتوانند محتوای ساخته هوش مصنوعی را به عنوان اثر خودشان منتشر کنند.
مولدهای تصویر از جمله شرکت ادوبی و گوگل راهکاری را پیشنهاد کردهاند که با واترمارک یا نشانهگذاری محتوا، نقش هوش مصنوعی در تولید آن را مشخص میکند.
6. درمورد توانمندیها، محدودیتها و موارد استفاده درست و نادرست گزارشهای عمومی ارائه کنند
تعهد ششم هم جای بحث بسیار دارد. چطور میتوان شرکتی را ملزم کرد تا درمورد توانمندیها و محدودیتهای سیستم خودش گزارش دقیق و بیطرف ارائه کند؟ این اطلاعات چه جزئیاتی را در بر میگیرد؟ و با توجه به موارد بسیاری که در آن توانمندی سیستم خود شرکت را نیز شگفت زده کرده چطور میتوان گزارشی روشن از آن ارائه کرد؟
7. تحقیق درمورد خطرات اجتماعی سیستمهای هوش مصنوعی از جمله جلوگیری از تبعیض و سوگیری خطرناک و محافظت از حریم خصوصی را در اولویت قرار دهند
تعهد به «اولویت قراردادن تحقیقات» هیچ شفافیتی ندارد. نمیتوان مشخص کرد که چه سطحی از تحقیقات به معنای اولویت دهی درست است. با این حال بخشی از محققان که در رابطه با خطرات اخلاقی هوش مصنوعی و تبعیض نگران هستند احتمالا از این تعهد استقبال میکنند.
8. سیستمهای هوش مصنوعی پیشرفتهای را برای رفع مهمترین چالشهای اجتماعی ساخته و به کار گیرند
کاخ سفید «پیشگیری از سرطان» و «جلوگیری از تغییر اقلیمی» را به دو چالش مهم اجتماعی مشخص کرده که شرکتهای هوش مصنوعی باید روی آن تمرکز کنند.
اما تحقیقات هوش مصنوعی را گاه با اهداف خاص به نتایج متفاوتی میرسند. بخشی از تکنولوژی آلفاگو از شرکت دیپمایند که برای بازی گو طراحی شده بود بعدا در پیشبینی ساختارهای سه بعدی پروتئین کاربرد پیدا کرد که اهمیت زیدی برای جامعه علمی داشت.
کوین روس، مقالهنویس حوزه تکنولوژی نیویورک تایمز، معتقد است که به طور کلی تعهد شرکتهای هوش مصنوعی به کاخ سفید ماهیت نمادین دارد. هیچ مکانیزیمی برای تضمین اجرای آنها در نظر گرفته نشده و بسیاری از تعهدات پیش از این هم در دستور کار شرکتها قرار داشته است.
منبع: خبرگزاری آریا
کلیدواژه: هوش مصنوعی سازمان ملل شرکت های هوش مصنوعی حد بمب هسته ای سازمان ملل متحد اتحادیه اروپا هوش مصنوعی هوش مصنوعی اوپن ای آی شرکت ها شده اند مدل ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.aryanews.com دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرگزاری آریا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۳۷۴۶۳۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
چالشهای زیستمحیطی در توسعه هوش مصنوعی
هوش مصنوعی مولد نگاه نوآوران و کارآفرینان را به خود جلب کرده است و آنها بهخوبی میدانند که چنین فناوری میتواند چه تغییرات شگفتی در جهان کنونی خلق کند. بااینحال، در پشتصحنه چنین تکنولوژی، چالشهای مهمی نهفته است که میتوانند تهدیدی برای پیشرفت آن باشد و منجر به ایجاد بحرانهای جهانی انرژی شود. با حضور هرچه بیشتر هوش مصنوعی در تاروپود صنایع مختلف، نگرانیها در مورد بهکارگیری بیرویه انرژی توسط هوش مصنوعی و عدم پایداری آن افزایش یافته و کارشناسان رویکردهای متفاوتی برای حل این معضل پیشنهاد میدهند.
دیتاسنترهای (Data centers) توسعهیافته توسط غولهای فناوری مانند آلفابت، مایکروسافت و آمازون که بهمنظور ارائه خدمات ابری استفاده میشوند، تنها حدوداً ۱ الی ۲ درصد از مصرف انرژی جهانی را به خود اختصاص دادهاند. همچنین این شرکتها همزمان با افزایش میزان کارکرد سیستمها، بهرهوری انرژی را در این مراکز بهبود بخشیدهاند و با سرمایهگذاری عظیم در بحث انرژیهای پاک، اثرات زیستمحیطی دستگاههای خود را کاهش دادهاند. البته لازم به ذکر است که تلاشهای این شرکتها برای تقویت سیستمها و بهرهوری مفید انرژی همچنان ادامه دارد.
هوش مصنوعی
بااینحال، ظهور هوش مصنوعی مولد چالشهای جدیدی را ایجاد کرده است. برای مثال، پردازشگرهای گرافیکی (GPU) در ChatGPT، انرژی زیادی را مصرف میکنند و طبق گفته «کریستوفر ولیس» از کمپانی Equinix (شرکت اجارهدهنده دیتاسنتر)، یک سرور استاندارد با مقیاس بالا، پیش از حضور هوش مصنوعی حدود ۱۰ الی ۱۵ کیلووات انرژی مصرف میکرد، درحالیکه این رقم با حضور هوش مصنوعی به ۴۰ الی ۶۰ کیلووات در هر رَک (rack) افزایش مییابد؛ البته مصرف بالای انرژی محدود به محاسبات دستگاهها نیست و سیستمهای خنککننده نیز برای رکهای GPUها به انرژی قابلتوجهی نیازمندند. همچنین استفاده از مدلهای زبانی مانند GPT-۴ در زمینههای گوناگون، از تحقیقات گرفته تا فعالیتهای خلاقانه تولید محتوا، میتوانند به افزایش بیشتر فشار در شبکه منجر شوند. (به عنوان مثال، یک سرچ ساده در ChatGPT میتواند ۱۰ برابر بیشتر از جستجو در گوگل انرژی مصرف کند.)
آژانس بینالمللی انرژی میگوید میزان مصرف انرژی دیتاسنترها تا سال ۲۰۲۶ ممکن است به ۲ برابر میزان دو سال پیش افزایش یابد و انتظار میرود که طی این بازه زمانی، این دستگاهها یکسوم مصرف انرژی ایالاتمتحده را به خود اختصاص دهند. همچنین «رنه هاس»، مدیر اجرایی آرم (Arm)، طی گفتگو با وال استریت ژورنال بیان کرد که تا پایان دهه فعلی میلادی، دیتاسنترهای هوش مصنوعی میتوانند تا ۲۵ درصد کل برق آمریکا را به خود اختصاص دهند؛ البته وی درحالی این ادعا را مطرح کرده که مصرف فعلی این سیستمها حدود ۴ درصد یا کمتر است.
پیچیدگیهای مصرف انرژی در آمریکا
ظهور هوش مصنوعی مولد همزمان با ایجاد فرصتهای اقتصادی متعدد، مصرف انرژی بالایی را هم میطلبد؛ درحالیکه کاربران و سرمایهداران رؤیای استفاده حداقلی انرژی را در سر دارند. این تفکر در سایر بخشها نیز قابل مشاهده است. برای مثال، بسیاری از مشتریان میخواهند انرژی خودروهایشان زیرو کربن (بدون کربن) باشد و منابع دیگری را برای انرژی دستگاههایشان جستجو میکنند.
از طرفی، گسترش شبکهها دیگر چالش پیشروی کمپانیهاست. علیرغم حمایت کاخ سفید، ساخت سریع ظرفیتهای تجدیدپذیر جدید برای شرکتها آسان نیست و آنها از مشکلات متعددی در زنجیره تأمین رنج میبرند. طبق برخی محاسبات، تحویل ترانسفورماتورها سه سال طول میکشد و همینطور افزایش هزینه پروژههای بادی و خورشیدی، تأمین مالی آنها را دشوار ساخته است.
چه باید کرد؟
شکی نیست که ادامه وضعیت فعلی، بحرانهای زیستمحیطی و انرژی متعددی را رقم خواهد زد؛ درنتیجه صنعت حالحاضر به راهکارهای نوآورانه و خلاق نیاز دارد. یکی از رویکردهای احتمالی، بهبود بهرهوری پردازشگرهای گرافیکی است. درحالحاضر انویدیا بهعنوان تأمینکننده عمده قطعات در این زمینه، ادعا کرده که بهرهوری لازم را در جدیدترین سرورهای هوشمصنوعی خود اعمال کرده است و این روند را ادامه میدهد. بااینحال، ساخت تراشههای کارآمدتر میتواند به افزایش مصرف انرژی ختم شود و دوباره مشکل ایجاد کند.
«آرون دنمن» از شرکت Bain، پیشنهاد میکند که مدعیان حوزه فناوری از منابع مالی خود برای کمک به شرکتهای حوزه برق جهت رفع محدودیتهای این شبکه خرج کنند. او با اشاره به افزایش تقاضا برای مصرف انرژی در زمانهای اوج مصرف، از الزام بهرهمندی از نیروگاههای پشتیبان آماده گفت. بااینحال، این نیروگاهها احتمالاً با گاز طبیعی کار میکنند که با اهداف زیستمحیطی شرکتهای بزرگ در تضاد است.
کمبود احتمالی انرژیهای تجدیدپذیر هزینههایی را بههمراه خواهد داشت. علیرغم عدم آشنایی با نحوه درآمدزایی از هوش مصنوعی، مردم میدانند که حضور پردازشگرهای گرافیکی سدی بزرگ در بهرهوری انرژی محسوب میشوند. اگر هزینههای انرژی افزایش یابد، توسعه هوش مصنوعی و فناوریهای نوین نیز با اختلال روبهرو خواهد شد. از طرفی دیگر، «سم آلتمن» و همکارانش در OpenAI، بهکارگیری شکافت هستهای را بهعنوان یکی از راههای تأمین انرژی مصرفی سیستمهای هوش مصنوعی در سر دارند. بااینحال، باید منتظر ماند و دید که مسیر توسعه انرژیهای تجدیدپذیر چگونه پیش خواهد رفت و آینده هوش مصنوعی مولد بهعنوان یک فناوری کاربردی چگونه خواهد بود.
منبع: دیجیاتو
باشگاه خبرنگاران جوان علمی پزشکی فناوری