ادعای جنجالی مهندس گوگل: هوش مصنوعی LaMDA خودآگاه شده است

محتوای جدول

به گزارش پایگاه خبری اگنا، واشینگتن‌پست می‌نویسد گوگل یکی از مهندسان خود را به‌دلیل افشای اطلاعات محرمانه به مرخصی اجباری با حقوق فرستاده است. منابع واشینگتن‌پست می‌گویند این فرد مدعی شده است یکی از چت‌بات‌های هوش مصنوعی گوگل به خود آگاهی دست پیدا کرده است.

این مهندس بلیک لموین نام دارد و کارمند واحد تجاری Responsible AI است و وظیفه‌ی آزمودن LaMDA را برعهده داشته است تا بررسی کند که این مدل زبانی از جملات تبعیض‌آمیز یا نفرت‌آفرین استفاده می‌کند یا خیر. گفته می‌شود نگرانی بلیک لموین از خودآگاه‌بودن LaMDA، ناشی از پاسخ‌های قانع‌کننده‌ی این سیستم هوش مصنوعی به سؤالاتی درباره‌ی حق‌وحقوق خود و اصول اخلاقی ربات‌ها بوده است.

ماه گذشته‌ی میلادی، لموین گزارشی با عنوان «آیا LaMDA خودآگاه است؟» تهیه کرد و دردسترس مدیران گوگل قرار داد. در این گزارش، رونوشت گفت‌و‌گوی بین بلیک لموین و LaMDA پیوست شده بود. پس از اینکه گوگل بلیک لموین را به مرخصی اجباری فرستاد، او تصمیم گرفت متن گفت‌و‌گویش با هوش مصنوعی LaMDA را روی حساب کاربری خود در Medium منتشر کند. لموین در گزارش خود می‌گوید LaMDA به‌دلیل داشتن احساسات و عواطف و تجربیات ذهنی خودآگاه است.

واشینگتن‌پست و گاردین می‌نویسند گوگل اعتقاد دارد اقدامات بلیک لموین درب۳ LaMDA باعث شده است قوانین این شرکت درزمینه‌ی محرمانه‌نگه‌داشتن اطلاعات نقض شود. گفته می‌شود لموین از وکیلی دعوت کرده است تا نماینده‌ی سیستم هوش مصنوعی LaMDA شود و درباره‌ی فعالیت‌های غیراخلاقی در گوگل با کمیته‌ی قضایی مجلس سنای ایالات متحده گفت‌و‌گو کند.

بلیک لموین در ۶ ژوئن ۲۰۲۲ (۱۶ خرداد ۱۴۰۱) به مرخصی اجباری فرستاده شد و سپس همان روز مقاله‌ی «آیا LaMDA خودآگاه است؟» را به‌صورت عمومی منتشر کرد. او در مقاله‌ی خود می‌گوید برای کمک‌گرفتن در روند تحقیقاتش خواهان مقدار کمی مشاوره‌ی خارج از شرکت شده است. ظاهراً در فهرست کسانی که با بلیک لموین در این زمینه گفت‌و‌گو کرده‌اند، نام کارکنان دولت آمریکا هم دیده می‌شود.

سال گذشته، گوگل در حاشیه‌ی همایش Google I/O هوش مصنوعی LaMDA را رونمایی کرد و گفت ازطریق این سیستم دستیارهای مکالمه‌محور مبتنی‌بر AI را بهبود می‌دهد تا این دستیارها بتوانند طبیعی‌تر گفت‌و‌ کنند. گوگل برای قابلیت Smart Compose جیمیل و بخش سؤالات موتور جست‌و‌جو از مدل زبانی مشابه LaMDA استفاده می‌کند.

فردی با نام برایان گابریل به‌نمایندگی از گوگل اطلاعیه‌ای برای واشینگتن‌پست ارسال کرده و در آن نوشته است که هیچ مدرکی وجود ندارد که نشان‌دهنده‌ی خودآگاه‌بودن LaMDA باشد.

تیم ما شامل اخلاق‌پژوهان و کارشناسان فناوری است و با استناد به چهارچوب‌هایی که برای هوش مصنوعی تعیین کرده‌ایم، نگرانی‌های بلیک را بررسی کرده‌ و به او گفته‌اند که مدارک ادعاهای بلیک را تأیید نمی‌کند. به بلیک گفته شد هیچ مدرکی وجود ندارد که نشان دهد LaMDA خودآگاه است؛ البته مدارک زیادی نیز برای نقض این ادعا وجود دارد.

گابریل درادامه می‌گوید برخی افراد در جامعه‌ی هوش مصنوعی معتقدند که ممکن است در بلندمدت هوش مصنوعی خودآگاه خلق شود؛ اما منطقی نیست که این کار را با انسان‌نگاری مدل‌های مکالمه‌محور امروزی انجام دهیم؛ مدل‌هایی که خودآگاه نیستند. به‌گفته‌ی نماینده‌ی گوگل، این سیستم‌های هوش مصنوعی از مکالمات تقلید می‌کنند و می‌توانند درباره‌ی هر موضوعی بحث کنند.

گوگل می‌گوید تاکنون صدها محقق و مهندس با LaMDA گفت‌و‌گو کرده‌اند و تا جایی که این شرکت می‌داند، هیچ‌یک از افراد یادشده ادعاهایی مشابه بلیک لموین مطرح و LaMDA را انسان فرض نکرده‌اند.

واشینگتن‌پست به‌نقل از یکی از استادان زبان‌شناسی در دانشگاه واشینگتن می‌نویسد: «درست نیست که پاسخ‌های نوشته‌شده‌ی قانع‌کننده را با توانمندی ادراک حسی یکی بدانیم.» این استاد زبان‌شناسی می‌گوید اکنون دستگاه‌هایی داریم که می‌توانند بدون فکرکردن کلمه تولید کنند؛ اما هنوز یاد نگرفته‌ایم که با این حقیقت کنار بیاییم و همیشه تصور می‌کنیم پای یک ذهن در میان است.تیمنیت گبرو، اخلاق‌شناس برجسته‌ی حوزه‌ی هوش مصنوعی، در سال ۲۰۲۰ از گوگل اخراج شد. او می‌گوید بحث دربار‌ه‌ی خودآگاه‌بودن هوش مصنوعی ممکن است باعث کاهش توجه به دیگر مباحث مرتبط به اخلاق در هوش مصنوعی شود. گبرو به‌طور مشخص‌تر می‌گوید به‌جای بحث درباره‌ی آثار زیان‌بار شرکت‌هایی نظیر گوگل، تبعیض جنسی، نژادپرستی، سیاست استعماری هوش مصنوعی و متمرکزسازی قدرت، تمام وقت خود را به بحث درباره‌ی خودآگاه‌بودن هوش مصنوعی اختصاص می‌دهیم.

بلیک لموین با وجود نگرانی‌هایش، می‌گوید قصد دارد در آینده نیز روی هوش مصنوعی کار کند: «صرف‌نظر از اینکه گوگل به همکاری با من ادامه دهد یا نه، قصدم این است که در حوزه‌ی هوش مصنوعی باقی بمانم.»

انتهای پیام/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سایر مطالب پیشنهادی به شما

سایر مطالب پیشنهادی به شما

تماس با ما

خواندن این مطالب را هم به شما پیشنهاد می‌کنیم: