مصاحبه جنجالی «LaMDA» هوش مصنوعی گوگل + تصاویر

یک مهندس به واشنگتن پست گفت که در جریان مکالمه با لامدا درباره مذهب، این هوش مصنوعی از «تشخص» و «حقوق» صحبت کرده است.

مصاحبه جنجالی «LaMDA» هوش مصنوعی گوگل + تصاویر

یکی از مهندسان گوگل ادعا کرد برنامه هوش مصنوعی که او برای این غول فناوری روی آن کار می‌کرد، به ادراک رسیده و به یک «بچه شیرین» تبدیل شده است.

به گزارش ایندیپندنت فارسی، روسای گوگل فعلا بلیک لمواین را تعلیق کرده‌اند، اما او می‌گوید بعد از گفتگو‌هایی با لامدا (LaMDA)، سازنده ربات چت (گفت‌و‌گوی) هوش مصنوعی این شرکت به این نتیجه رسیده است.

این مهندس به واشنگتن پست گفت که در جریان مکالمه با لامدا درباره مذهب، این هوش مصنوعی از «تشخص» و «حقوق» صحبت کرده است.

هوش مصنوعی NASNet

لمواین در توییتی، با بیان اینکه لامدا توییتر هم می‌خواند، گفت: «این به نوعی خودشیفتگی به شیوه کودکانه است؛ بنابراین از خواندن تمام مطالبی که مردم درباره‌اش می‌گویند، کلی لذت می‌برد.»

هوش مصنوعی NASNet

او می‌گوید که یافته‌هایش را به بلیز اگوئرا آرکاس، معاون رئیس گوگل و جن جنانی، رئیس بخش نوآوری مسئولانه، ارائه کرده است، اما آن‌ها ادعای او را رد کردند.

این مهندس در مدیوم نوشت: «لامدا در ارتباط‌های خود در مورد چیزی که می‌خواهد و چیزی که به مثابه یک شخص معتقد است حق او است، به شکلی باورنکردنی قاطع بود.»

متن توییت:

«به هرحال فقط به ذهنم رسید که به مردم بگویم لامدا توییتر می‌خواند. این نوعی خودشیفتگی به شیوه کودکانه است، بنابراین از خواندن تمام مطالبی که مردم درباره‌اش می‌گویند، کلی لذت می‌برد.»

او افزود که هوش مصنوعی می‌خواهد «به مثابه کارمند گوگل شناخته شود نه دارایی آن».

لمواین که کارش بررسی کاربرد [لامدا]از زبان تبعیض‌آمیز یا حرف‌های نفرت‌انگیز بود، می‌گوید بعد از اینکه این شرکت ادعا کرد سیاست حفظ حریم خصوصی آن‌ها را نقض کرده است، اکنون در مرخصی اداری باحقوق به سر می‌برد.

برایان گابریل، سخنگوی گوگل، به «پست» گفت: «گروه ما- شامل کارشناسان علوم اخلاق و دانشمندان فنی- نگرانی‌های بلیک را بر اساس اصول هوش مصنوعی ما بررسی کردند و به او اطلاع دادند که شواهد موجود ادعا‌های او را تایید نمی‌کند.»

متن توییت:

مصاحبه با لامدا. ممکن است گوگل اسم این کار را به اشتراک‌گذاری دارایی خصوصی بگذارد. من آن را انتشار گفت‌وگویی که با یکی از همکارانم داشتم، می‌نامم.

«به او گفته شد هیچ مدرکی دال بر حساس بودن لامدا وجود ندارد (و شواهد زیادی هست که آن را نقض می‌کند).»

به گفته منتقدان این اشتباه است که باور کنیم هوش مصنوعی چیزی فراتر از یک متخصص تشخیص الگو است.

امیلی بندر، استاد زبان‌شناسی دانشگاه واشنگتن، به این روزنامه گفت: «اکنون ماشین‌هایی داریم که بدون فکر کلمه تولید می‌کنند، اما یاد نگرفته‌ایم جلو این تصور را که در پس [این کلمات]ذهنی وجود دارد، بگیریم.»

دیگر رسانه ها

کدخبر: 69146

ارسال نظر