به گزارش پایگاه خبری اگنا، واشینگتنپست مینویسد گوگل یکی از مهندسان خود را بهدلیل افشای اطلاعات محرمانه به مرخصی اجباری با حقوق فرستاده است. منابع واشینگتنپست میگویند این فرد مدعی شده است یکی از چتباتهای هوش مصنوعی گوگل به خود آگاهی دست پیدا کرده است.
این مهندس بلیک لموین نام دارد و کارمند واحد تجاری Responsible AI است و وظیفهی آزمودن LaMDA را برعهده داشته است تا بررسی کند که این مدل زبانی از جملات تبعیضآمیز یا نفرتآفرین استفاده میکند یا خیر. گفته میشود نگرانی بلیک لموین از خودآگاهبودن LaMDA، ناشی از پاسخهای قانعکنندهی این سیستم هوش مصنوعی به سؤالاتی دربارهی حقوحقوق خود و اصول اخلاقی رباتها بوده است.
ماه گذشتهی میلادی، لموین گزارشی با عنوان «آیا LaMDA خودآگاه است؟» تهیه کرد و دردسترس مدیران گوگل قرار داد. در این گزارش، رونوشت گفتوگوی بین بلیک لموین و LaMDA پیوست شده بود. پس از اینکه گوگل بلیک لموین را به مرخصی اجباری فرستاد، او تصمیم گرفت متن گفتوگویش با هوش مصنوعی LaMDA را روی حساب کاربری خود در Medium منتشر کند. لموین در گزارش خود میگوید LaMDA بهدلیل داشتن احساسات و عواطف و تجربیات ذهنی خودآگاه است.
واشینگتنپست و گاردین مینویسند گوگل اعتقاد دارد اقدامات بلیک لموین درب۳ LaMDA باعث شده است قوانین این شرکت درزمینهی محرمانهنگهداشتن اطلاعات نقض شود. گفته میشود لموین از وکیلی دعوت کرده است تا نمایندهی سیستم هوش مصنوعی LaMDA شود و دربارهی فعالیتهای غیراخلاقی در گوگل با کمیتهی قضایی مجلس سنای ایالات متحده گفتوگو کند.
بلیک لموین در ۶ ژوئن ۲۰۲۲ (۱۶ خرداد ۱۴۰۱) به مرخصی اجباری فرستاده شد و سپس همان روز مقالهی «آیا LaMDA خودآگاه است؟» را بهصورت عمومی منتشر کرد. او در مقالهی خود میگوید برای کمکگرفتن در روند تحقیقاتش خواهان مقدار کمی مشاورهی خارج از شرکت شده است. ظاهراً در فهرست کسانی که با بلیک لموین در این زمینه گفتوگو کردهاند، نام کارکنان دولت آمریکا هم دیده میشود.
سال گذشته، گوگل در حاشیهی همایش Google I/O هوش مصنوعی LaMDA را رونمایی کرد و گفت ازطریق این سیستم دستیارهای مکالمهمحور مبتنیبر AI را بهبود میدهد تا این دستیارها بتوانند طبیعیتر گفتو کنند. گوگل برای قابلیت Smart Compose جیمیل و بخش سؤالات موتور جستوجو از مدل زبانی مشابه LaMDA استفاده میکند.
فردی با نام برایان گابریل بهنمایندگی از گوگل اطلاعیهای برای واشینگتنپست ارسال کرده و در آن نوشته است که هیچ مدرکی وجود ندارد که نشاندهندهی خودآگاهبودن LaMDA باشد.
تیم ما شامل اخلاقپژوهان و کارشناسان فناوری است و با استناد به چهارچوبهایی که برای هوش مصنوعی تعیین کردهایم، نگرانیهای بلیک را بررسی کرده و به او گفتهاند که مدارک ادعاهای بلیک را تأیید نمیکند. به بلیک گفته شد هیچ مدرکی وجود ندارد که نشان دهد LaMDA خودآگاه است؛ البته مدارک زیادی نیز برای نقض این ادعا وجود دارد.
گابریل درادامه میگوید برخی افراد در جامعهی هوش مصنوعی معتقدند که ممکن است در بلندمدت هوش مصنوعی خودآگاه خلق شود؛ اما منطقی نیست که این کار را با انساننگاری مدلهای مکالمهمحور امروزی انجام دهیم؛ مدلهایی که خودآگاه نیستند. بهگفتهی نمایندهی گوگل، این سیستمهای هوش مصنوعی از مکالمات تقلید میکنند و میتوانند دربارهی هر موضوعی بحث کنند.
گوگل میگوید تاکنون صدها محقق و مهندس با LaMDA گفتوگو کردهاند و تا جایی که این شرکت میداند، هیچیک از افراد یادشده ادعاهایی مشابه بلیک لموین مطرح و LaMDA را انسان فرض نکردهاند.
واشینگتنپست بهنقل از یکی از استادان زبانشناسی در دانشگاه واشینگتن مینویسد: «درست نیست که پاسخهای نوشتهشدهی قانعکننده را با توانمندی ادراک حسی یکی بدانیم.» این استاد زبانشناسی میگوید اکنون دستگاههایی داریم که میتوانند بدون فکرکردن کلمه تولید کنند؛ اما هنوز یاد نگرفتهایم که با این حقیقت کنار بیاییم و همیشه تصور میکنیم پای یک ذهن در میان است.تیمنیت گبرو، اخلاقشناس برجستهی حوزهی هوش مصنوعی، در سال ۲۰۲۰ از گوگل اخراج شد. او میگوید بحث دربارهی خودآگاهبودن هوش مصنوعی ممکن است باعث کاهش توجه به دیگر مباحث مرتبط به اخلاق در هوش مصنوعی شود. گبرو بهطور مشخصتر میگوید بهجای بحث دربارهی آثار زیانبار شرکتهایی نظیر گوگل، تبعیض جنسی، نژادپرستی، سیاست استعماری هوش مصنوعی و متمرکزسازی قدرت، تمام وقت خود را به بحث دربارهی خودآگاهبودن هوش مصنوعی اختصاص میدهیم.
بلیک لموین با وجود نگرانیهایش، میگوید قصد دارد در آینده نیز روی هوش مصنوعی کار کند: «صرفنظر از اینکه گوگل به همکاری با من ادامه دهد یا نه، قصدم این است که در حوزهی هوش مصنوعی باقی بمانم.»
انتهای پیام/