Web Analytics Made Easy - Statcounter


خبرگزاری آریا-دبیر کل سازمان ملل متحد انفجار هوش مصنوعی را در حد بمب هسته‌ای دانست، از کارشناسان خواست وارد عمل شوند و آن را تهدید وجودی برای بشریت اعلام کنند، زیرا کمتر از تهدید جنگ هسته‌ای نیست.
به گزارش خبرگزاری آریا، آینده متعلق به هوش مصنوعی و امروز نیز این شاخه گسترده از علم  در حال نفوذ در تک تک زوایای زندگی بشری است، اما در حدود دو سال آینده باید منتظر تغییر و تحولات شگرفی در این عرصه بود، تا جایی که ماشین های هوشمند و ربات ها از سویی حتی جزئی ترین کارهای روزمره آدم ها را متقبل شده اند و از سوی دیگر تا تولید سلاح و جنگ افزار به وسیله برخی دولت ها و نقض قوانین و جنگ های نه چندان خوشایند آینده پیش می روند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!


هرچند هوش مصنوعی با اهداف ساده ای همچون حل مشکلات جامعه بشری و تصمیم گیری های مختلف در زندگی روزمره پدید آمد، اما قابلیت های این علم تا حدی است که وحشت جامعه بین المللی از بهره گیری های خارج از روال و به عبارتی زیر پا گذاردن قوانین بشری و زوایای پیدا و پنهان آن را به دنبال داشته است.
آنتونیو گوترش، دبیر کل سازمان ملل متحد با هشدار اینکه استفاده مخرب از سامانه‌های هوش مصنوعی می‌تواند باعث ایجاد مرگ و ویرانی‌های وحشتناک شود، گفت: استفاده نامناسب از هوش مصنوعی برای اهداف تروریستی، مجرمانه یا دولتی «آسیب‌های عمیق روان‌شناختی» به دنبال دارد.
وی عنوان کرد، حملات سایبری که به وسیله هوش مصنوعی تقویت شده‌اند، هم اکنون در حال هدف قرار دادن عملیات‌های انسان‌دوستانه سازمان ملل متحد هستند.
چرا شورای امنیت سازمان ملل متحد از تقویت هوش مصنوعی در عرصه های مختلف می هراسد و به دنبال وضع قوانینی برای کنترل آن است؟ همان واهمه ای که ایلان ماسک، به عنوان سرمایه گذار اصلی هوش مصنوعی که حتی در حال پیش بردن پروژه ساخت تراشه های مصنوعی برای کنترل ذهن آدم هاست، چندی پیش از آن سخن گفته بود.

نهادی برای مقابله
گوترش خواستار ایجاد نهاد جدیدی در سازمان ملل متحد برای مقابله با خطرات ناشی از هوش مصنوعی شد و گفت: هدف کلی این نهاد حمایت از کشورها برای به حداکثر رساندن مزایای هوش مصنوعی، تعدیل مخاطرات احتمالی فعلی و اجرا کردن ساز و کارهای مورد توافق بین‌المللی برای نظارت و حکمرانی خواهد بود.
قانونگذاران اروپایی و سازمانی تحت حمایت ایلان ماسک نیز که در تهیه پیش نویس قانون هوش مصنوعی اتحادیه اروپا مشارکت دارند، ازجمله سازمان هایی هستند که از رهبران جهان خواسته اند برای یافتن راه هایی برای جلوگیری از ایجاد اختلال در هوش مصنوعی پیشرفته همکاری کنند.

خطری بزرگ
دبیرکل سازمان ملل متحد انفجار هوش مصنوعی را در حد بمب هسته ای دانست و  گفت: از کارشناسان می‌خواهم وارد عمل شوند و هوش مصنوعی را تهدیدی وجودی برای بشریت اعلام کنند که کمتر از تهدید جنگ هسته‌ای نیست.
به باور دانشمندان و حقایق علمی، علوم و جنگ‌های شناختی که بر پایه علومی نظیر اعصاب، روان شناسی، زبان شناسی و فلسفه ذهن تشکیل شده اند، می توانند با بهره گیری از هوش مصنوعی خطرات بسیاری در حد نابودی بشریت به دنبال داشته باشد.
هرچند هوش مصنوعی می تواند در راستای تکامل و رشد انسانیت بهره برداری شود، ولی اگر با رعایت اصول اخلاقی- انسانی همراه نباشد، می تواند به سلاحی کشنده و تهدید کننده بشریت تبدیل شود؛ چنانچه به عنوان سلاح های شناختی برای تغییر رفتار، فرهنگ، سبک زندگی و تمامی شئون زندگی سایبری بشر استفاده می شود.
کشورهای متخاصم و تروریستی و نیز رژیم صهیونیستی می توانند از جنبه های منفی علمی هوش مصنوعی با اهداف کاملاً ضد بشری و جنگ افروزی بهره برداری کنند، لذا سازمان ملل متحد به وحشت افتاده و سبب هشدارهای پیاپی این نهاد بین المللی شده است.
سازمان ملل متحد خطر هوش مصنوعی خارج از کنترل را در حد بمب هسته ای دانسته است، بمبی که از اساس ریشه و بنیاد همه هستی را به هم می ریزد و راهی برای مقابله جامعه هدف نمی گذارد، لذا باید هوش مصنوعی زیر نظر نهاد و سازمانی رسمی و بر مبنای قوانینی مدون کنترل شود.
اگر کنترل انجام نشود، کشورهایی مانند آمریکا که پیش تر در زمینه تسلیحات اتمی پا را از قوانین بشری فراتر گذاشته بودند، بار دیگر به دنبال اهداف شوم خود خواهند رفت.


غول‌های تکنولوژی برای جلوگیری از خطرات هوش مصنوعی تعهد دادند
یک سالی است که جهان پس از عرضه ChatGPT با غول بزرگی به نام هوش مصنوعی و قابلیت‌های فراوان آشنا شده و از همان ابتدای کار بسیاری بر خطرات متعدد و لزوم اقدام فوری مسئولان و شرکت‌های ارائه دهنده تاکید کرده‌اند. با این حال دو رویکرد متفاوت را در نیم کره غربی نسبت به AI شاهد هستید، با اینکه اتحادیه اروپا بازهم در قانون‌گذاری پیشتاز جهان شده و به تعبیر ناظران سخت‌ترین قوانین را پیشنهاد کرده اما در ایالات متحده، منزلگاه بزرگترین شرکت‌های هوش مصنوعی، شرایط متفاوت است. غول‌های آمریکایی به تازگی تعهداتی داوطلبانه را به دولت آمریکا ارائه کرده‌اند.
 رویکرد متفاوت اتحادیه اروپا و ایالات متحده نسبت به قانون‌گذاری و تنظیم‌گری شرکت‌های تکنولوژی و دیگر فعالان صنعتی شاید یکی از عواملی است که در کنار موضوعاتی مثل نیروی کار ماهر، مالیات و دسترسی به منابع عظیم سرمایه باعث پیشتازی آمریکا به خصوصی در حوزه تکنولوژی شده است.

به طور کلی قانون‌گذاران قاره سبز سریع‌تر و سخت‌گیرانه‌تر از همتایان آمریکایی خود عمل می‌کنند و قوانین جامع اتحادیه اروپا در حوزه حریم خصوصی و محافظت از داده یکی از مقرراتی است که تنها در یک مورد به جریمه 1.3 میلیارد دلاری برای فیسبوک منتهی شد.

اتحادیه اروپا همچنین کامل‌ترین قانون هوش مصنوعی را نیز معرفی کرده و انتظار می‌رود این قانون که طرح اولیه آن سال 2021 پیشنهاد شد تا پایان سال 2023 به تصویب برسد.

اما در آن سوی اقیانوس هنوز قانون جامع و فدرالی برای تنظیم‌گری هوش مصنوعی وجود ندارد و مقرراتی در حوزه حریم خصوصی، محافظت از داده و جلوگیری از تبعیض هرکدام به نحوی جوانب مختلف AI را زیر چتر خود می‌گیرند. در تازه‌ترین تحولات شرکت‌های تکنولوژی تعهداتی داوطلبانه را به کاخ سفید ارائه کرده‌اند و هدف جلوگیری از خطرات و تبعات منفی هوش مصنوعی است که در ادامه این تعهدات هشت‌گانه را بررسی می‌کنیم.

به روایت نیویورک تایمز، بزرگترین ارائه دهندگان محصولات هوش مصنوعی (آمازون، آنتروپیک، گوگل، اینفلکشن، متا، مایکروسافت و اوپن‌ای‌آی)، متعهد شده‌اند که:

1. پیش از عرضه سیستم‌های هوش مصنوعی آزمون امنیت داخلی و خارجی انجام دهند
تعهد آزمایش و آزمون امنیتی چیز جدیدی نیست و هرکدام از این شرکت‌ها پیش از این هم به چنین اقداماتی متعهد شده بودند. از یک سو تعهد جدیدی ارائه نشده و افزون بر این وعده شرکت‌ها مبهم است. جزئیات چندانی درمورد الزامات آزمون یا مسئول آن ارائه نشده است.
در بیانیه‌ای که همراه با تعهدات منتشر شده کاخ سفید تنها تصریح می‌کند که «بخشی [از آزمایش مدل‌های هوش مصنوعی] توسط متخصصان مستقل انجام می‌گیرد» و تمرکز این آزمون‌ها بر خطراتی «همچون امنیت زیستی و امنیت سایبری است و تبعات گسترده‌تر اجتماعی را نیز شامل می‌شود.»

2. اطلاعات مربوط به مدیریت خطرات هوش مصنوعی را در تمام صنعت و با دولت، جامعه مدنی و آکادمیک به اشتراک‌ بگذارند
تعهد دوم هم تا حدی مبهم است. بعضی از شرکت‌ها پیشتر اطلاعاتی را درمورد مدل‌های هوش مصنوعی خود-عمدتا به صورت مقالات آکادمیک یا پست‌های وبلاگی-منتشر کرده‌اند. از جمله می‌توان به اوپن‌ای‌آی و آنتروپیک اشاره کرد که مستنداتی به نام «کارت‌های سیستم» را منتشر کرده‌اند و در آن به توصیف اقداماتشان برایر افزایش امنیت مدل‌ها پرداخته‌اند.
اما در برخی موارد هم بعضی اطلاعات عرضه نشده و نگرانی‌هایی را در پی داشته است. اوپن‌ای‌آی با عرضه مدل هوش مصنوعی GPT-4 به نوعی سنت شکنی کرد و اطلاعات مربوط به مقدار داده‌های آموزشی یا گستره این مدل (پارامتر‌های آن) را مخفی نگه داشت. اوپن‌ای‌آی گفته بود که به دلیل نگرانی‌های رقابتی و ایمنی چنین اطلاعاتی را منتشر نکرده است.


3. در امنیت سایبری و مراقبت‌های داخلی برای حفاظت از معیار‌ها اختصاصی و منتشر نشده مدل سرمایه‌گذاری کنند
این تعهد از نگاه فعالان هوش مصنوعی روشن‌تر است و جای بحث کمتری دارد. «معیار‌های مدل»  به معنی دستورالعمل‌های ریاضی است که به مدل‌های هوش مصنوعی امکان فعالیت می‌دهد. جاسوسان یا کسانی که مثلا به دنبال کپی کردن ChatGPT هستند برای سرقت همین معیار‌ها تلاش می‌کنند و کنترل آنها به نفع شرکت‌ها است.
پیشتر مشکلاتی در همین حوزه رخ داده که از جمله می‌توان به نشت اطلاعات مدل هوش مصنوعی شرکت متا  اشاره کرد. این اطلاعات چند روز پس عرضه مدل در وبسایت 4chan و دیگر وبسایت‌ها منتشر شد. با توجه به خطرات ناشی از انتشار چنین اطلاعاتی، چنین تعهدی منطقی به نظر می‌رسد.

4. کشف و گزارش نقاط ضعف سیستم‌های AI توسط شخص ثالث را تسهیل کنند
مفهوم این تعهد چندان روشن نیست. شرکت‌های هوش مصنوعی پیش از این هم پس از عرضه محصولاتشان، آنهم به دلیل تلاش دیگران برای سو استفاده و دور زدن محدودیت‌ها، نقاط ضعفی را شناسایی کرده‌اند.
با این حال این تعهد از شرکت‌ها می‌خواهد تا «مکانیزم گزارش قدرتمندی» را ایجاد کنند تا بتوان نقاط ضعف را گزارش داد. مشخص نیست که منظور از این مکانیزم چیست و آیا منظور یک دکمه درون اپلیکیشنی همچون گزینه گزارش فیسبوک و توییتر است یا طرح‌های پاداشی که در ازای کشف نقطه ضعف جایزه می‌دهند یا چیز دیگری.

5. مکانیزم‌های فنی قدرتمندی برای تضمین اطلاع رسانی درمورد محتوای تولیدی هوش مصنوعی از جمله یک سیستم واترمارک ارائه کنند
تا به اینجا شرکت‌های هوش مصنوعی نتوانستند ابزاری را برای شناسایی دقیق محتوای تولید شده توسط هوش مصنوعی ایجاد کنند. دلایل فنی زیادی برای ضعف در این حوزه وجود دارد و درنتیجه کاربران می‌توانند محتوای ساخته هوش مصنوعی را به عنوان اثر خودشان منتشر کنند.
مولد‌های تصویر از جمله شرکت ادوبی و گوگل راهکاری را پیشنهاد کرده‌اند که با واترمارک یا نشانه‌گذاری محتوا، نقش هوش مصنوعی در تولید آن را مشخص می‌کند.

6. درمورد توانمندی‌ها، محدودیت‌ها و موارد استفاده درست و نادرست گزارش‌های عمومی ارائه کنند
تعهد ششم هم جای بحث بسیار دارد. چطور می‌توان شرکتی را ملزم کرد تا درمورد توانمندی‌ها و محدودیت‌های سیستم خودش گزارش دقیق و بی‌طرف ارائه کند؟ این اطلاعات چه جزئیاتی را در بر می‌گیرد؟ و با توجه به موارد بسیاری که در آن توانمندی سیستم خود شرکت را نیز شگفت زده کرده چطور می‌توان گزارشی روشن از آن ارائه کرد؟

7. تحقیق درمورد خطرات اجتماعی سیستم‌های هوش مصنوعی از جمله جلوگیری از تبعیض و سو‌گیری خطرناک و محافظت از حریم خصوصی را در اولویت قرار دهند
تعهد به «اولویت قراردادن تحقیقات» هیچ شفافیتی ندارد. نمی‌توان مشخص کرد که چه سطحی از تحقیقات به معنای اولویت دهی درست است. با این حال بخشی از محققان که در رابطه با خطرات اخلاقی هوش مصنوعی و تبعیض نگران هستند احتمالا از این تعهد استقبال می‌کنند.

8. سیستم‌های هوش مصنوعی پیشرفته‌ای را برای رفع مهمترین چالش‌های اجتماعی ساخته و به کار گیرند
کاخ سفید «پیشگیری از سرطان» و «جلوگیری از تغییر اقلیمی» را به دو چالش مهم اجتماعی مشخص کرده که شرکت‌های هوش مصنوعی باید روی آن تمرکز کنند.
اما تحقیقات هوش مصنوعی را گاه با اهداف خاص به نتایج متفاوتی می‌رسند. بخشی از تکنولوژی آلفاگو از شرکت دیپ‌مایند که برای بازی گو طراحی شده بود بعدا در پیش‌بینی ساختارهای سه بعدی پروتئین کاربرد پیدا کرد که اهمیت زیدی برای جامعه علمی داشت.
کوین روس، مقاله‌نویس حوزه تکنولوژی نیویورک تایمز، معتقد است که به طور کلی تعهد شرکت‌های هوش مصنوعی به کاخ سفید ماهیت نمادین دارد. هیچ مکانیزیمی برای تضمین اجرای آنها در نظر گرفته نشده و بسیاری از تعهدات پیش از این هم در دستور کار شرکت‌ها قرار داشته است.



منبع: خبرگزاری آریا

کلیدواژه: هوش مصنوعی سازمان ملل شرکت های هوش مصنوعی حد بمب هسته ای سازمان ملل متحد اتحادیه اروپا هوش مصنوعی هوش مصنوعی اوپن ای آی شرکت ها شده اند مدل ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.aryanews.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری آریا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۳۷۴۶۳۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

چالش‌های زیست‌محیطی در توسعه هوش مصنوعی

هوش مصنوعی مولد نگاه نوآوران و کارآفرینان را به خود جلب کرده است و آنها به‌خوبی می‌دانند که چنین فناوری می‌تواند چه تغییرات شگفتی در جهان کنونی خلق کند. بااین‌حال، در پشت‌صحنه چنین تکنولوژی، چالش‌های مهمی نهفته است که می‌توانند تهدیدی برای پیشرفت آن باشد و منجر به ایجاد بحران‌های جهانی انرژی شود. با حضور هرچه بیشتر هوش مصنوعی در تاروپود صنایع مختلف، نگرانی‌ها در مورد به‌کارگیری بی‌رویه انرژی توسط هوش مصنوعی و عدم پایداری آن افزایش یافته و کارشناسان رویکرد‌های متفاوتی برای حل این معضل پیشنهاد می‌دهند.

دیتاسنتر‌های (Data centers) توسعه‌یافته توسط غول‌های فناوری مانند آلفابت، مایکروسافت و آمازون که به‌منظور ارائه خدمات ابری استفاده می‌شوند، تنها حدوداً ۱ الی ۲ درصد از مصرف انرژی جهانی را به خود اختصاص داده‌اند. همچنین این شرکت‌ها هم‌زمان با افزایش میزان کارکرد سیستم‌ها، بهره‌وری انرژی را در این مراکز بهبود بخشیده‌اند و با سرمایه‌گذاری عظیم در بحث انرژی‌های پاک، اثرات زیست‌محیطی دستگاه‌های خود را کاهش داده‌اند. البته لازم به ذکر است که تلاش‌های این شرکت‌ها برای تقویت سیستم‌ها و بهره‌وری مفید انرژی همچنان ادامه دارد. 

هوش مصنوعی

بااین‌حال، ظهور هوش مصنوعی مولد چالش‌های جدیدی را ایجاد کرده است. برای مثال، پردازشگر‌های گرافیکی (GPU) در ChatGPT، انرژی زیادی را مصرف می‌کنند و طبق گفته «کریستوفر ولیس» از کمپانی Equinix (شرکت اجاره‌دهنده دیتاسنتر)، یک سرور استاندارد با مقیاس بالا، پیش از حضور هوش مصنوعی حدود ۱۰ الی ۱۵ کیلووات انرژی مصرف می‌کرد، درحالی‌که این رقم با حضور هوش مصنوعی به ۴۰ الی ۶۰ کیلووات در هر رَک (rack) افزایش می‌یابد؛ البته مصرف بالای انرژی محدود به محاسبات دستگاه‌ها نیست و سیستم‌های خنک‌کننده نیز برای رک‌های GPU‌ها به انرژی قابل‌توجهی نیازمندند. همچنین استفاده از مدل‌های زبانی مانند GPT-۴ در زمینه‌های گوناگون، از تحقیقات گرفته تا فعالیت‌های خلاقانه تولید محتوا، می‌توانند به افزایش بیشتر فشار در شبکه منجر شوند. (به عنوان مثال، یک سرچ ساده در ChatGPT می‌تواند ۱۰ برابر بیشتر از جستجو در گوگل انرژی مصرف کند.)

آژانس بین‌المللی انرژی می‌گوید میزان مصرف انرژی دیتاسنتر‌ها تا سال ۲۰۲۶ ممکن است به ۲ برابر میزان دو سال پیش افزایش یابد و انتظار می‌رود که طی این بازه زمانی، این دستگاه‌ها یک‌سوم مصرف انرژی ایالات‌متحده را به خود اختصاص دهند. همچنین «رنه هاس»، مدیر اجرایی آرم (Arm)، طی گفتگو با وال استریت ژورنال بیان کرد که تا پایان دهه فعلی میلادی، دیتاسنتر‌های هوش مصنوعی می‌توانند تا ۲۵ درصد کل برق آمریکا را به خود اختصاص دهند؛ البته وی درحالی این ادعا را مطرح کرده که مصرف فعلی این سیستم‌ها حدود ۴ درصد یا کمتر است. 

پیچیدگی‌های مصرف انرژی در آمریکا 

ظهور هوش مصنوعی مولد هم‌زمان با ایجاد فرصت‌های اقتصادی متعدد، مصرف انرژی بالایی را هم می‌طلبد؛ درحالی‌که کاربران و سرمایه‌داران رؤیای استفاده حداقلی انرژی را در سر دارند. این تفکر در سایر بخش‌ها نیز قابل مشاهده است. برای مثال، بسیاری از مشتریان می‌خواهند انرژی خودروهایشان زیرو کربن (بدون کربن) باشد و منابع دیگری را برای انرژی دستگا‌ه‌هایشان جستجو می‌کنند. 

از طرفی، گسترش شبکه‌ها دیگر چالش پیش‌روی کمپانی‌هاست. علی‌رغم حمایت کاخ سفید، ساخت سریع ظرفیت‌های تجدیدپذیر جدید برای شرکت‌ها آسان نیست و آنها از مشکلات متعددی در زنجیره تأمین رنج می‌برند. طبق برخی محاسبات، تحویل ترانسفورماتور‌ها سه سال طول می‌کشد و همین‌طور افزایش هزینه پروژه‌های بادی و خورشیدی، تأمین مالی آنها را دشوار ساخته است.

چه باید کرد؟ 

شکی نیست که ادامه وضعیت فعلی، بحران‌های زیست‌محیطی و انرژی متعددی را رقم خواهد زد؛ درنتیجه صنعت حال‌حاضر به راه‌کار‌های نوآورانه و خلاق نیاز دارد. یکی از رویکرد‌های احتمالی، بهبود بهره‌وری پردازشگر‌های گرافیکی است. درحال‌حاضر انویدیا به‌عنوان تأمین‌کننده عمده قطعات در این زمینه، ادعا کرده که بهره‌وری لازم را در جدیدترین سرور‌های هوش‌مصنوعی خود اعمال کرده است و این روند را ادامه می‌دهد. بااین‌حال، ساخت تراشه‌های کارآمدتر می‌تواند به افزایش مصرف انرژی ختم شود و دوباره مشکل ایجاد کند. 

«آرون دنمن» از شرکت Bain، پیشنهاد می‌کند که مدعیان حوزه فناوری از منابع مالی خود برای کمک به شرکت‌های حوزه برق جهت رفع محدودیت‌های این شبکه خرج کنند. او با اشاره به افزایش تقاضا برای مصرف انرژی در زمان‌های اوج مصرف، از الزام بهره‌مندی از نیروگاه‌های پشتیبان آماده گفت. بااین‌حال، این نیروگاه‌ها احتمالاً با گاز طبیعی کار می‌کنند که با اهداف زیست‌محیطی شرکت‌های بزرگ در تضاد است.

کمبود احتمالی انرژی‌های تجدیدپذیر هزینه‌هایی را به‌همراه خواهد داشت. علی‌رغم عدم آشنایی با نحوه درآمدزایی از هوش مصنوعی، مردم می‌دانند که حضور پردازشگر‌های گرافیکی سدی بزرگ در بهره‌وری انرژی محسوب می‌شوند. اگر هزینه‌های انرژی افزایش یابد، توسعه هوش مصنوعی و فناوری‌های نوین نیز با اختلال روبه‌رو خواهد شد. از طرفی دیگر، «سم آلتمن» و همکارانش در OpenAI، به‌کارگیری شکافت هسته‌ای را به‌عنوان یکی از راه‌های تأمین انرژی مصرفی سیستم‌های هوش مصنوعی در سر دارند. بااین‌حال، باید منتظر ماند و دید که مسیر توسعه انرژی‌های تجدیدپذیر چگونه پیش خواهد رفت و آینده هوش مصنوعی مولد به‌عنوان یک فناوری کاربردی چگونه خواهد بود.

منبع: دیجیاتو

باشگاه خبرنگاران جوان علمی پزشکی فناوری

دیگر خبرها

  • رایزنی نماینده ایران با اولیانوف در وین
  • رایزنی نمایندگان ایران و روسیه در وین
  • نقشه راه بهره‌گیری از دانش هسته‏‌ای در حوزه گیاهان دارویی و طب سنتی تدوین می‌شود
  • آمریکا از چین و روسیه خواست کنترل سلاح‌های هسته‌ای را به «هوش مصنوعی» نسپارند
  • چالش‌های زیست‌محیطی در توسعه هوش مصنوعی
  • آژانس به مسیر عقلانیت باز می گردد؟
  • قابلیت قدیمی تلگرام به اسنپ‌چت رسید!
  • سقوط بزرگ فروش چین در انتظار اپل
  • هوش مصنوعی چگونه به خانه‌داری کمک می‌کند؟
  • پیش‌بینی‌های ناامیدکننده فروش آیفون در چین