به گزارش عصر ایران به نقل از کیو پست، دایان فرانسیس، نویسنده و روزنامهنگار آمریکایی-کانادایی در یادداشتی به آینده هوش مصنوعی پرداخت و نوشت: با ورود به عصر جدیدی در تجارت و فناوری، معاملات سودآور، بازارهای غیرمنتظره، جنگافروزی و جنجالهای پیرامون هوش مصنوعی (AI) بر تیتر خبرها غالب شدهاند.
چیزی که ما امروز به آن “AI” می گوییم، هوش مصنوعی مولد است. مجموعهای از موتورهای آماری قدرتمند که میتوانند وظایف خاصی را با استفاده از الگوریتمهای یادگیری ماشین برای پردازش مقادیر زیادی داده، شناسایی الگوها و یادگیری تصمیمگیری یا انجام وظایف بدون برنامهنویسی صریح انجام دهند.
اما جهش تکنولوژیک بعدی به جلو – توسعه هوش عمومی مصنوعی (AGI) – تنها چند سال دیگر است و وجود انسان را متحول خواهد کرد.
هوش عمومی مصنوعی (AI) هنوز یک مفهوم فرضی است، اما وقتی وارد شد دیگر در مورد ساخت ابزار نیست، بلکه در مورد ساخت موجوداتی با توانایی های شناختی در سطح انسانی است که می توانند درک کنند، بیاموزند و دانش را در طیف گسترده ای از وظایف فکری به کار ببرند. هوش مصنوعی وظایف خود را انجام خواهد داد، اما هوش مصنوعی به طور کلی خودکفا و به طور بالقوه خودگردان خواهد بود و ما فقط چند سال دیگر فاصله داریم.
آیا هوش مصنوعی از کنترل خارج شده است؟
جفری هینتون، “پدرخوانده هوش مصنوعی” نگران است که هوش مصنوعی عمومی آنقدر سریع پیشرفت کند که از کنترل انسان پیشی بگیرد. می گوید: خطرات سوء استفاده، حوادث و آسیب های اجتماعی عمیق است. ما آماده نیستیم.
تعامل انسان با چت ربات های مولد هوش مصنوعی مانند Grok یا ChatGPT نیز در حال حاضر یک نگرانی است.
مردی در بلژیک اخیراً پس از هفته ها صحبت با یک ربات چت هوش مصنوعی که ناامیدی و تصمیم او را برای خودکشی تشویق می کرد، خودکشی کرد. در ایالات متحده، پدری فرزندان خود را کشت و یک تکنسین 47 ساله هم خود و هم مادرش را با اتکا به توصیه و تشویق چت ربات های هوش مصنوعی کشت.
استفاده از این ربات ها در حال حاضر بسیار رایج است و تعاملات آنها بدون درز است. تنها در سال 2025، ChatGPT روزانه بیش از 2.5 میلیارد درخواست از کاربران در سراسر جهان دریافت کرد.
پتانسیل هوش مصنوعی برای ترویج آسیب به خطرات سلامت روان محدود نمی شود. مشکل دیگر این است که تعداد دیپفیکها که از عکسها، صداها و فیلمهای مصنوعی ساخته شدهاند، به سرعت در اینترنت در حال افزایش است.
عکس جعلی پاپ فرانسیس با پوشیدن یک کت مارک در سال 2023 در فضای مجازی منتشر شد. این بسیار سرگرم کننده بود. اما فیلم جعلی از اعلام جنگ توسط رهبران جهان یا اعتراف نامزدها به جنایاتی که هرگز مرتکب نشده اند خنده دار نخواهد بود.
انتخابات 2024 ایالات متحده اولین انتخاباتی بود که در آن اطلاعات نادرست تولید شده توسط هوش مصنوعی به جریان اصلی تبدیل شد. تا سال 2030، تشخیص حقیقت از دروغ بدون ابزارهای گرانقیمت، ممکن است غیرممکن شود و بین کسانی که اطلاعات «دارند» و کسانی که «نداشتهاند» تقسیمبندیهای جدیدی ایجاد شود. دموکراسی ها ممکن است نتوانند در برابر چنین حمله ای مقاومت کنند.
همچنین یک خلأ قانونی وجود دارد و شرکتهای هوش مصنوعی با همان خلأهای مسئولیتی محافظت میشوند که به فیسبوک و توییتر اجازه میدهد از مسئولیت بازنشر پستهای مضر رسانههای اجتماعی فرار کنند.
هیچ شرکتی را نمی توان به طور کامل در قبال خسارات رخ داده امروز مسئول دانست. اما اگر این مصونیت ادامه یابد و هیچ مقرراتی وضع نشود، عواقب آن تا سال 2030 جدیتر خواهد بود، زمانی که شرکتهای هوش مصنوعی داراییهای هوش مصنوعی را ایجاد میکنند که از آستانه فراتر میرود.
خطری برای تمدن؟
سیستمهای آن با سرعت و مقیاس نور استدلال میکنند، یاد میگیرند و در حوزههایی مانند ذهن انسان برنامهریزی میکنند. هوش مصنوعی قبلاً صنایع، آموزش، رسانه و سیاست را مختل کرده است، اما هوش مصنوعی می تواند خود تمدن را متحول کند. هوش مصنوعی عمومی قادر به درک، استدلال، تکرار، پیشبینی و یادگیری است و آگاهی عاطفی و زمینهای را شامل میشود.
این یک جهش بزرگ خواهد بود. خطر این است که مرز بین این دو ممکن است به سرعت محو شود و در چند دهه آینده نه تنها با ماشینهای بدخواهانه بلکه با هوشهای مستقل خارج از کنترل ما نیز مواجه شویم.
چه زمانی AGI همه جا حاضر می شود؟ کارشناسان در مورد زمان ظهور آن اختلاف نظر دارند:
– سم آلتمن (مدیر عامل OpenAI) پیشبینی میکند که تا اوایل دهه 2030، ChatGPT میتواند در حوزههای مختلف مانند ذهن انسان استدلال کند، یاد بگیرد و برنامهنویسی کند. او در اوایل سال 2024 گفت: “ما می دانیم چگونه AGI بسازیم.”
– جنسن هوانگ (مدیر عامل انویدیا) معتقد است که در پنج سال آینده، اگر عملکرد سخت افزاری همراه با رشد تصاعدی قدرت محاسباتی بهبود یابد، هوش مصنوعی با توانایی انسان برابری می کند.
– جفری هینتون (پیشگام یادگیری عمیق) می گوید پیش بینی این امر دشوار است و ممکن است بین سال های 2028 و 2043 اتفاق بیفتد. اما خطرناک ترین پیامد هوش مصنوعی و بالقوه AGI، ژئوپلیتیک است.
ملت ها آن را نه تنها به عنوان یک ابزار اقتصادی، بلکه به عنوان یک سلاح نیز می بینند. کارتل ها و مافیاها این را به عنوان یک مرکز سود، یک ابزار خواهند دید. دو سال پیش، اریک اشمیت هشدار داد که هوش مصنوعی میتواند تا سال 2027 با هواپیماهای بدون سرنشین خودمختار، ارتشهای سربازان روباتها و حملات سایبری پیشبینیکننده، انقلابی در جنگ ایجاد کند.
چین همچنین با ادغام هوش مصنوعی در نظارت، لجستیک نظامی و سانسور به سرعت در حال پیشرفت است. پکن اعلام کرد که تا سال 2030 رهبر جهان در هوش مصنوعی خواهد بود. دولتی که توسط تکنوکرات ها اداره می شود دارای مزایایی مانند جمعیت زیاد، استانداردهای ضعیف حریم خصوصی و دولتی است که مایل به بسیج منابع در مقیاس بزرگ است.
ایالات متحده همچنان رهبر است و فناوری آن توسط شرکت های خصوصی کنترل می شود که منافع آنها با امنیت ملی یا ارزش های دموکراتیک سازگار نیست. آمریکا دارای تخصص و سرمایه است، اما ذهنیت آزادیخواهانه و آزادی خواهانه دارد.
رئیس جمهور دونالد ترامپ، سیلیکون ولی و رهبران آن را پذیرفته و واشنگتن را برای اولین بار به سمت سرمایه داری دولتی سوق داده و سهام غول های فناوری کشور مانند اینتل و انویدیا را خریداری کرده است.
ترامپ حق دارد فنآوران را در تصمیمگیریهای دولت بگنجاند، زیرا آنها بزرگترین چالش حاکمیتی در تاریخ را نشان میدهند. غولهای فناوری آمریکا تریلیونها دلار در سطح جهان از طریق هوش مصنوعی و نوآوریهای هوش مصنوعی به دست خواهند آورد که باعث اختلال در اشتغال در مقیاس گسترده خواهد شد. آمازون اخیراً 30000 شغل را از لیست حقوق و دستمزد خود حذف کرده است و کاهش های بیشتری در راه است.
فناوری از بشریت پیشی گرفته است
به ستایش برخی از رهبران فناوری که قبلاً از این واقعیت حمایت کردهاند که دولتها باید یک درآمد پایه جهانی (UBI) را برای حفظ ثبات اجتماعی و رفاه اقتصادی طراحی کنند و زمانی را برای «یقهسفیدها» (کارمندان اداری) فراهم کنند تا به مشاغل یا زمینههای جدید بروند.
بسیاری از میلیاردرهای فناوری شخصاً پروژه های آزمایشی UBI را تأمین مالی می کنند تا نیاز و راه حل های ممکن را نشان دهند. گلدمن ساکس پیش بینی می کند که 300 میلیون شغل در سراسر جهان می تواند توسط هوش مصنوعی مولد خودکار شود، جایی که وکلا، حسابداران، روزنامه نگاران و برنامه نویسان رایانه آسیب پذیر هستند. و سپس AGI می آید.
تا زمانی که دولت ها از فناوری استفاده نکنند، آن را تنظیم نکنند، انحصارات را ممنوع کنند، و اسلحه، کلاهبرداری و دستکاری رسانه ها را غیرقانونی نکنند، وضعیت بشر بدتر خواهد شد. باید استانداردهای جهانی وجود داشته باشد، همانطور که برای سلاح های هسته ای وجود دارد.
ثروت خیرهکنندهای که تولید میشود نباید احتکار شود، بلکه باید از طریق مالیات برای حمایت و آموزش کارگران آواره و همچنین هزینه تحقیقات برای غلبه بر بیماریها و حل چالشهای دیگر روی کره زمین جمعآوری شود.
به عبارت دیگر، ما باید قبل از اینکه ما را کنترل کند، راه هایی برای کنترل آن پیدا کنیم.
آلبرت انیشتین خردمندانه اظهار داشت: “به طرز نگران کننده ای روشن شده است که فناوری ما از انسانیت ما پیشی گرفته است.” پس از ایجاد بمب اتمی، او بر نیاز به ملاحظات اخلاقی و عقلانی برای اطمینان از اینکه پیشرفت های تکنولوژیکی به جای تضعیف بشریت در خدمت ارتقای آن باشد، تاکید کرد.






ارسال پاسخ