هشدار در مورد سوءاستفاده ChatGPT از اسرار افراد علیه خودشان
یک مطالعه جدید توصیه کرده است که اسرار عمیق خود را در ابزارهای هوش مصنوعی مانند ChatGPT یا Replika فاش نکنید؛ زیرا به گفته برخی از محققان، اطلاعات شخصی شما ممکن است بعداً علیه خودتان مورد استفاده قرار گیرد.
مایک وولریج، استاد علوم کامپیوتر در دانشگاه آکسفورد با هشدار در مورد به اشتراک گذاری اسرار و اطلاعات شخصی با هوش مصنوعی مانند ChatGPT میگوید که اگرچه این سیستمهای هوش مصنوعی ممکن است درک کننده به نظر برسند؛ اما در واقع چیزی را احساس نمیکنند. آنها برنامه ریزی شده اند تا پاسخهای مورد پسند شما را ارائه کنند، اما فاقد احساسات یا تجربیات واقعی هستند.
مایک وولریج افزود: تکنولوژی اساساً به گونهای طراحی شده است که سعی کند آنچه را که میخواهید بشنوید به شما بگوید و این به معنای واقعی کلمه تمام کاری است که انجام میدهد و هیچ همدلی ندارد.
وولریج همچنین هشدار داد که هر چیزی که با ChatGPT به اشتراک میگذارید٬ ممکن است در نسخههای بعدی سیستم به صورت زنده درآید؛ بنابراین پیشنهاد میکند از به اشتراک گذاری مکالمات عمیق یا حساس با ChatGPT اجتناب کنید.
منبع: الیوم السابع
Authors: خبرگزاری باشگاه خبرنگاران | آخرین اخبار ایران و جهان | YJC