آیا «هوش مصنوعی» به مرحله خطرناک خود رسیده است؟

آیا «هوش مصنوعی» به مرحله خطرناک خود رسیده است؟

«نشریه آتلانتیک» در گزارشی عنوان کرده است: «اگر خواستید در سال ۲۰۲۳ به معنای واقعی کلمه با احساسات یک نفر بازی کنید و به او آسیب بزنید سراغ هوش مصنوعی بروید».

آیا «هوش مصنوعی» به مرحله خطرناک خود رسیده است؟

فارس‌پلاس؛ دیگر رسانه‌ها- الف نوشت: «نشریه آتلانتیک» به تازگی در گزارشی، پیشرفت‌های اخیر در زمینه هوش مصنوعی و جلوه‌های تازه این فناوری را که عمومی شده‌اند، به نمودهایی عینی از یک توهین تشبیه کرده است. این نشریه می‌نویسد: "اگر خواستید به معنای واقعی کلمه به احساسات یک نفر در سال 2023 آسیب بزنید و با او بازی کنید، سراغ هوش مصنوعی بروید".

نکته قابل تامل اینکه به تازگی شماری از رهبران صنعتی و حوزه فناوری آمریکا نیز در بیانیه مشترکی به این نکته اشاره داشته‌اند که هوش مصنوعی می‌تواند خطرِ انقراض بشر را به همراه داشته باشد. البته که در این زمینه برخی معتقدند فناوری و پیشرفت آن اتفاقی کاملا مثبت است با این حال، سوءاستفاده‌های بشر از آن می‌تواند عوارض جانبی بسیار بدی را به همراه داشته باشد. با این همه، این طور به نظر می‌رسد که حداقل از ۳ منظر، کاربردهای هوش مصنوعی در زندگی بشر می‌تواند تبعات مخربی را به همراه داشته باشد.

اول اینکه باید توجه داشته باشیم، سال‌هاست مناظرات مختلفی در مورد استفاده از فناوری هوش مصنوعی در صنعت تسلیحات مطرح می‌شود. با این حال، در مدت اخیر و با توجه به کسب پیشرفت‌های قابل ملاحظه در این حوزه، مناظرات در مورد تبعات مخرب استفاده از هوش مصنوعی در قالب تسلیحات مختلف نیز بیش از پیش افزایش یافته است.

در این زمینه منتقدان به طور خاص به این نکته اشاره دارند که فناوری هوش مصنوعی و استفاده از آن در قالب تسلیحات مختلف در میدان های نبرد که عاری از حضور مستقیم انسان‌ها هستند، می‌تواند تبعات وخیمی را برای غیرنظامیان به همراه داشته باشد. آنها در این زمینه به طور خاص به دو نکته اشاره می‌کنند. اول اینکه اساسا هوش مصنوعی در میدان‌های جنگ قادر به تمیز دادن و تفاوت قائل شدن میان نظامیان و غیرنظامیان نیست و دیگر اینکه اگر فناوری راهبری هوش مصنوعی از کنترل خارج شود و اختلالی در این مسیر رخ دهد، کاملا محتمل است که یک فاجعه رخ دهد و شاهد کشتارهای خطرناک از سوی ماشین های جنگی مجهز به هوش مصنوعی باشیم.

کما اینکه پیشتر نیز مثلا تصاویری از اتومبیل‌های خودرانِ شرکت "تسلا" که مجهز به هوش مصنوعی هستند، در حالی که کاملا کنترل خود را از دست داده و با سرعت فروان در محیط شهری حرکت می‌کنند منتشر شده است.

دوم اینکه ظهور فناوری های جدید نظیر "چت جی‌پی‌تی" و امثالهم سبب شده تاافراد بتوانند با هوش مصنوعی چت کنند و پاسخ هایی را از آن بگیرند که تا حد زیادی به پاسخ های بشری نزدیک هستند. موضوعی که به طور خاص در مدت اخیر جنجال های زیادی را برانگیخته و مثلا موارد زیادی بوده که افراد در قالب مقالات و گزارش های کاری و تحصیلی خود از این فناوری سواستفاده کرده اند.

در این میان، فعال شدن فناوری های دیگر که امکان شبیه سازی بالای صدای افراد و حتی تصویر آن ها را فراهم می کند نیز در نوع خود چالش زا شده است. جالب است که مثلا "تام هنکس" بازیگر شناخته شده هالیوودی به تازگی در موضع گیری گفته است که با استفاده از هوش مصنوعی قادر خواهد بود که پس از مرگش نیز فیلم بازی کند.

و در نهایت سوم اینکه در مدت اخیر شاهد انتشار تصاویری با کیفیت بالا و البته بسیار شبیه به واقعیت بوده ایم که همگی دستپخت هوش مصنوعی بوده اند و در نوع خود بُهت مردم در کشورهای مختلف جهان را به همراه داشته و حتی در بعضی موارد آن ها را شوکه نیز کرده اند. به عنوان مثال، در بحبوحه طرح اتهامات مختلف علیه ترامپ به دلیل پرونده قضایی او و امکان بازداشت قریب الوقوعش، تصاویری از بازداشت ترامپ توسط هوش مصنوعی در فضای مجازی منتشر شده که برای مدتی، بسیاری را شوکه کرد.

تصاویری که کاملا جعلی بودند. در نمونه‌ای دیگر، در مدت اخیر تصاویری از وقوع انفجار در نزدیکی کاخ سفید منتشر شد که جدای از شوکه کردن افکار عمومی در آمریکا، بهت و شوک فعالان اقتصادی در این کشور را نیز به همراه داشت. موضوعی که بلافاصله با واکنش های مقام های آمریکایی رو به رو شد و آن ها سعی کردند ضمن رد کردن صحت تصاویر مذکور، از تاثیرگذاری منفی چند عکس تولید شده توسط هوش مصنوعی بر بازار و مناسبات اقتصادی کشور خود جلوگیری کنند.

با این همه باید منتظر ماند و دید که بشر در سال‌های آینده، چه اقداماتی را با محوریت برقراری برخی اصول و مقررات و پروتکل ها جهت مدیریت فناوری های مرتبط با هوش مصنوعی انجام می‌دهد. حوزه‌ای که مخصوصا در سال‌های اخیر، مناظرات و مباحثات مختلفی با محوریت آن انجام گرفته و به شدت چالش زا بوده است.

پایان پیام/ت

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *