مدیرعامل اوپن ایآی: در مورد مسائل خصوصیتان با هوش مصنوعی صحبت نکنید
سم آلتمن، مدیرعامل «اوپن ایآی»، در جدیدترین مصاحبه خود هشدار داد که گفتوگوهای خصوصی با چتباتهایی مانند چتجیپیتی لزوماً محرمانه نیستند و هیچ قانونی برای حفاظت از دادههای حساس کاربران وجود ندارد. این نگرانی در حال حاضر یکی از مسائل داغ در مورد استفاده از هوش مصنوعی در زندگی روزمره است.

سم آلتمن، مدیرعامل شرکت «اوپن ایآی»، سازنده معروفترین مدل هوش مصنوعی مولد، چتجیپیتی، اخیراً در مصاحبهای با تئو وان، مجری پادکست This Past Weekend درباره خطرات استفاده از هوش مصنوعی برای مکالمات شخصی و حساس هشدار داد. آلتمن تاکید کرد که باوجود نیاز به محرمانگی در گفتوگوهای انجام شده با هوش مصنوعی، در حال حاضر هیچ قانونی برای حفاظت از این اطلاعات وجود ندارد.
در بخشی از این مصاحبه، تئو وان ابراز نگرانی کرد که از ابزارهای هوش مصنوعی استفاده کند، زیرا او نمیداند چه کسی ممکن است به اطلاعات شخصی او دسترسی داشته باشد. آلتمن به این موضوع پاسخ داد: «این نگرانی کاملاً منطقی است. قبل از استفاده گسترده از این ابزارها، افراد باید مطمئن شوند که حریم خصوصی آنها از جنبه حقوقی تأمین میشود.»
در سالهای اخیر، کاربران بهویژه جوانان، به استفاده از چتباتها برای مشاورههای روانشناسی و حقوقی روی آوردهاند. این موضوع نه تنها نگرانیهای حقوقی بلکه مشکلاتی در زمینه حفظ حریم خصوصی را نیز بهوجود آورده است. از آنجا که هیچ قانونی برای حفاظت از دادهها در این مکالمات وجود ندارد، آلتمن نیز اذعان کرد که اگرچه مکالمات با هوش مصنوعی میتواند برای بسیاری مفید باشد، اما این مکالمات لزوماً محرمانه نیستند و در صورت بروز مشکلات حقوقی ممکن است این اطلاعات فاش شوند.
او اضافه کرد: «اگر شما مسائل شخصی خود را با چتجیپیتی در میان بگذارید و بعدها دعوی حقوقی مطرح شود، ممکن است شرکت ما مجبور شود این اطلاعات را افشا کند.»
آلتمن همچنین بیان کرد که این مشکل باید «با فوریت» حل شود و سیاستگذاران نیز بر این موضوع تاکید دارند. به گفته او، چتباتها باید همان سطح حفاظت حریم خصوصی را داشته باشند که برای مشاوره با وکیل یا درمانگر ارائه میشود.
با این حال، نگرانیهای حقوقی تنها چالش موجود نیست. یک تحقیق جدید از دانشگاه استنفورد نشان داده که چتباتهای درمانی هوش مصنوعی میتوانند نظرات نادرستی درباره بیماریهای روانی ارائه دهند، که این خود میتواند خطرات بیشتری برای استفادهکنندگان بهدنبال داشته باشد.