برخی از افراد برجسته مانند فیزیکدان افسانهای استیون هاوکینگ و افراد پیشتازی مانند ایلان ماسک ادعا میکنند که هوش مصنوعی به طور بالقوه میتواند بسیار خطرناک باشد. ایلان ماسک یک بار در گفتگویی خطرات هوش مصنوعی را با خطر دیکتاتور کره شمالی مقایسه کرد. بیل گیتس، یکی از بنیانگذاران مایکروسافت هم معتقد است که دلایلی برای محتاط بودن در کار با هوش مصنوعی وجود دارد، که اگر به درستی مدیریت نشود، میتواند به فاجعه بیانجامد. در همین راستا از آنجایی که پیشرفتهای اخیر این نوع هوش خیلی زودتر از آنچه در ابتدا تصور میشد، رشد کرده است، اکنون زمان آن است که مشخص شود هوش مصنوعی واقعا چه خطراتی میتواند داشته باشد.
هوش مصنوعی چگونه میتواند خطرناک باشد؟
اولین خطر پیش رو در کار با هوش مصنوعی میتواند به تولید سلاح های خودمختار بر پایهی هوش مصنوعی بیانجامد. به این معنی که هوش مصنوعی میتواند برای کشتن انسانها برنامه ریزی شود و به شکل خودکار این کار را انجام دهد. حتی ممکن است انتظار داشته باشیم که داستان برخورداری از تسلیحات هسته ای با تسلیحاتی خودمختاری بر پایهی هوش مصنوعی جایگزین شود.
دستکاری اجتماعی
همانطور که میدانید شبکههای اجتماعی از طریق الگوریتمهای مستقل به شناسایی بازار هدف خود میپردازند. این الگوریتمها دقیقا می دانند ما کی هستیم، چه چیزی را دوست داریم و در حدس زدن آنچه به آن فکر میکنیم فوق العاده خوب هستند، به همین دلیل هم میتوانند محتوایی دقیقا مطابق با ذائقهی ما به ما نشان دهند. اما وجود هوش مصنوعی میتواند با دستکاری بازاریابی هدف دنبال شود. به این معنی که با گسترش تبلیغات به افرادی که از طریق الگوریتمها و دادههای شخصی شناسایی شدهاند، هوش مصنوعی میتواند آنها را هدف قرار دهد و هر اطلاعاتی را که دوست دارند، در هر قالب قانعکنندهای به آنها ارائه کنند.
تجاوز به حریم خصوصی و درجه بندی اجتماعی
اکنون امکان ردیابی و تجزیه و تحلیل هر فرد به صورت آنلاین و همچنین زمانی که در حال انجام کارهای روزانه خود است به راحتی وجود دارد. دوربینها تقریباً همه جا هستند و الگوریتمهای تشخیص چهره شما را به خوبی میشناسند. با وجود سیستمهایی بر پایهی هوش مصنوعی این نظارتها دقیقتر و شدیدتر هم میشود که نه تنها تجاوز به حریم خصوصی است، بلکه میتواند به سرعت به نقض حقوق اجتماعی تبدیل شود.
۱ دیدگاه