دن دنت توضیح داد که این کار به عنوان یک مکانیسم بقا آغاز شد. این مهم است که پیش بینی کنید شخص دیگری چگونه رفتار خواهد کرد. آن ببر ممکن است یک تهدید باشد، آن شخص از دهکده بعدی ممکن است چیزی برای ارائه داشته باشد.
اگر به سادگی صبر کنیم و ببینیم، ممکن است با یک غافلگیری ناخواسته یا حتی مرگبار مواجه شویم. میانبری که موضع عمدی به ما ارائه می دهد این است که «اگر من جای آنها بودم، ممکن بود این را در ذهن داشته باشم». با فرض اینکه قصد همیشه کار نمی کند، اما اغلب آنقدر کار می کند که همه انسان ها آن را پذیرفته اند.
موضع فیزیکی وجود دارد (صخره ای که به سمت پنجره می رود احتمالاً آن را می شکند) و موضع طراحی (این خودپرداز قرار است پول توزیع کند، بیایید به دنبال شکاف بگردیم.) اما مفیدترین و اکنون مشکل سازترین میانبر این است که تصور کنید دیگران در حال تصور هستند.
قبلاً مرغی در یک پاساژ در نیویورک وجود داشت که تیک تاک بازی می کرد. بهترین راه برای درگیر شدن با بازی مرغ این بود که تصور کنید جوجه اهداف و استراتژی هایی دارد و او “امید دارد” شما به آنجا بروید، نه آنجا.
البته، جوجه ها هیچ امیدی ندارند، بیشتر از این که رایانه های شطرنج سعی می کنند شما را به دام بیفتند وقتی یک پاسانت راه اندازی می کنند. اما ما این موضع را اتخاذ می کنیم زیرا مفید است. این یک تصویر دقیق از وضعیت موجودیت فیزیکی نیست، اما ممکن است راهی مفید برای پیشبینی باشد.
در اینجا نوع خاصی از همدلی وجود دارد، خود را به موجودیت دیگری گسترش می دهیم و تصور می کنیم که قصد دارد. اما فقدان همدلی نیز وجود دارد، زیرا ما فرض میکنیم که موجودیت دقیقاً شبیه ماست… بلکه یک جوجه نیز هست.
چالش زمانی آغاز میشود که پیشبینیهای ما از عاملیت و قصد با اتفاقات بعدی مطابقت نداشته باشد.
هوش مصنوعی مطمئناً به نظر می رسد که هم یک طراحی و هم یک موضع عمدی از ما به دست آورده است. حتی محققان هوش مصنوعی با تعاملات خود با یک LLM کار به گونهای برخورد میکنند که گویی با یک فرد واقعی صحبت میکنند، شاید کمی متعادل، اما با این وجود یک شخص.
گرچه موضع عمدی حقوق و مسئولیت هایی را به همراه دارد. ما با نوزادان طوری رفتار نمی کنیم که انگار آنها چیزی را آنطور که ما می خواهند می خواهند، که زندگی با گریه آنها را آسان تر می کند. مربیان موفق سگ تصور نمی کنند که سگ ها انسان هایی با چهار پا هستند – آنها رفتار را به ورودی ها و خروجی ها خلاصه می کنند و برای تغییر رفتار از شرطی سازی عامل استفاده می کنند نه استدلال.
هر روز، میلیونها نفر به پذیرندگان اولیه میپیوندند که به سیستمهای هوش مصنوعی از شک و تردید، موضعگیری قصد و اختیار میپیوندند. اما این یک توهم است و هوش مصنوعی برای حقوق آماده نیست و نمی تواند مسئولیت آن را بپذیرد.
تضاد بین آنچه ما باور داریم و آنچه اتفاق خواهد افتاد بسیار مهم خواهد بود، و ما حتی مطمئن نیستیم که چگونه در مورد آن صحبت کنیم.
موضع عمدی اغلب مفید است، اما همیشه دقیق نیست. وقتی دیگر مفید نیست، باید از مدل متفاوتی برای درک و انتظار چه چیزی استفاده کنیم.
منبع: https://seths.blog/2024/06/the-intentional-stance/