خبرهای داغ
کدخبر: ۱۸۷۱۶
تاریخ خبر:

مدیرعامل اوپن ای‌آی: در مورد مسائل خصوصیتان با هوش مصنوعی صحبت نکنید

سم آلتمن، مدیرعامل «اوپن ای‌آی»، در جدیدترین مصاحبه خود هشدار داد که گفت‌وگوهای خصوصی با چت‌بات‌هایی مانند چت‌جی‌پی‌تی لزوماً محرمانه نیستند و هیچ قانونی برای حفاظت از داده‌های حساس کاربران وجود ندارد. این نگرانی در حال حاضر یکی از مسائل داغ در مورد استفاده از هوش مصنوعی در زندگی روزمره است.

مدیرعامل اوپن ای‌آی: در مورد مسائل خصوصیتان با هوش مصنوعی صحبت نکنید

سم آلتمن، مدیرعامل شرکت «اوپن ای‌آی»، سازنده معروف‌ترین مدل هوش مصنوعی مولد، چت‌جی‌پی‌تی، اخیراً در مصاحبه‌ای با تئو وان، مجری پادکست This Past Weekend درباره خطرات استفاده از هوش مصنوعی برای مکالمات شخصی و حساس هشدار داد. آلتمن تاکید کرد که باوجود نیاز به محرمانگی در گفت‌وگوهای انجام شده با هوش مصنوعی، در حال حاضر هیچ قانونی برای حفاظت از این اطلاعات وجود ندارد.

در بخشی از این مصاحبه، تئو وان ابراز نگرانی کرد که از ابزارهای هوش مصنوعی استفاده کند، زیرا او نمی‌داند چه کسی ممکن است به اطلاعات شخصی او دسترسی داشته باشد. آلتمن به این موضوع پاسخ داد: «این نگرانی کاملاً منطقی است. قبل از استفاده گسترده از این ابزارها، افراد باید مطمئن شوند که حریم خصوصی آن‌ها از جنبه حقوقی تأمین می‌شود.»

در سال‌های اخیر، کاربران به‌ویژه جوانان، به استفاده از چت‌بات‌ها برای مشاوره‌های روان‌شناسی و حقوقی روی آورده‌اند. این موضوع نه تنها نگرانی‌های حقوقی بلکه مشکلاتی در زمینه حفظ حریم خصوصی را نیز به‌وجود آورده است. از آنجا که هیچ قانونی برای حفاظت از داده‌ها در این مکالمات وجود ندارد، آلتمن نیز اذعان کرد که اگرچه مکالمات با هوش مصنوعی می‌تواند برای بسیاری مفید باشد، اما این مکالمات لزوماً محرمانه نیستند و در صورت بروز مشکلات حقوقی ممکن است این اطلاعات فاش شوند.

او اضافه کرد: «اگر شما مسائل شخصی خود را با چت‌جی‌پی‌تی در میان بگذارید و بعدها دعوی حقوقی مطرح شود، ممکن است شرکت ما مجبور شود این اطلاعات را افشا کند.»

آلتمن همچنین بیان کرد که این مشکل باید «با فوریت» حل شود و سیاست‌گذاران نیز بر این موضوع تاکید دارند. به گفته او، چت‌بات‌ها باید همان سطح حفاظت حریم خصوصی را داشته باشند که برای مشاوره با وکیل یا درمانگر ارائه می‌شود.

با این حال، نگرانی‌های حقوقی تنها چالش موجود نیست. یک تحقیق جدید از دانشگاه استنفورد نشان داده که چت‌بات‌های درمانی هوش مصنوعی می‌توانند نظرات نادرستی درباره بیماری‌های روانی ارائه دهند، که این خود می‌تواند خطرات بیشتری برای استفاده‌کنندگان به‌دنبال داشته باشد.

copied
ارسال نظر
 
×

برای حمایت از ما لطفا روی تبلیغات مورد علاقه کلیک کنید.