هوش مصنوعی و امنیت سایبری سیمانتک
اکنون زمان یادگیری است:
هوش مصنوعی می تواند به طور مستقیم و غیر مستقیم بر امنیت سایبری به طرق مختلف تاثیر بگذارد. در حال حاضر چندین نمونه وجود دارد. ChatGPT دادههای شرکت را افشا می کند و این می تواند فقط نوک کوه یخ باشد. برنامه های هوش مصنوعی مولد، با سرعت بسیار بالایی در حال پذیرش هستند . یک نظر سنجی اخیر نشان می دهد، که نزدیک 60 درصد از شرکت های مورد نظرسنجی یک ابزار هوش مصنوعی مولد را تا پایان سال 2024 خریداری کرده اند یا قصد خرید آن را دارند!
یکی از بزرگترین تهدیداتی که هوش مصنوعی امروز برای تجارت ایجاد می کند این است که کسب و کارها برای اطلاعات واقعی به هوش مصنوعی متکی هستند. مشکل تکیه بر هوش مصنوعی این است که هیچ اعتبارسنجی برای صحت آن وجود ندارد.هنگامی که شخصی از موتور جستجو استفاده می کند، پاسخ های ارائه شده، بر اساس منابع می باشد. قدرت اختیار به کاربر اجازه می دهد، صحت یا نادرستی دادهها را تایید کند. با هوش مصنوعی، هیچ انتسابی وجود ندارد، زیرا اطلاعات هزاران مکان مختلف را به هم مرتبط می کند. فعلاً، هیچ راهی برای صحت سنجی داده های هوش مصنوعی وجود ندارد.عدم اعتبار سنجی یک اشکال بسیار بزرگ در این سیستم می باشد.
مشکل اساسی هوش مصنوعی این است، که هوش مصنوعی به دلیل مدل آن و نحوه آموزش و تنظیم دقیق، اطلاعات نادرستی را در اختیار کاربران قرار می دهد. با توجه به سرعت پذیرش و گسترش آن در سراسر شرکت ها، این بزرگترین تهدیدی است که هوش مصنوعی امروز برای مشاغل ایجاد میکند. 5 سال آینده ممکن است، این اطلاعات نادرست سبب اختلال در سازمان امروزی میشود. با نگاه به آینده به راحتی می توان زمانی را تصور کرد، که در آن سازمان ها ChatGPT یا برخی هوش مصنوعی مختص به خود را دارند که توسط مجموعه داده های خود برای استفاده آموزش دیده اند و پرسش ها و پاسخ ها صرفا مربوط به کسب و کار و مجموعه داده های آنها خواهد بود.
هوش مصنوعی مطمئناً به سمت آینده حرکت خواهد کرد. اما امروزه، یک مجموعه داده مشترک برای همه وجود دارد، که در حال تبدیل شدن به یک مشکل بزرگ برای شرکت ها در سرتاسر جهان می باشد.
خطرات سایبری هوش مصنوعی مولد:
هنگام در بررسی خطرات سایبری از هوش مصنوعی سه ملاحظه اصلی وجود دارد: 1- مهاجمان 2- حریم خصوصی 3- کپی رایت
مهاجمان سایبری: برای مجرمان سایبری استفاده از ChatGPT و GitHub Copilot و سایر راه حل های مولد هوش مصنوعی سود اضافی زیادی ارائه نمی دهند. برخی زمینه ها وجود دارد، که ابزارهای هوش مصنوعی مولد می توانند به حمله کمک کنند. برای مثال با ساخت ایمیلهای فیشینگ بهتر یا پویا، یا نوشتن کد، ChatGPT مانند سایر ابزارهای مولد هوش مصنوعی، یک ابزار توسعه محتوای اطلاعاتی است و نه یک موجود خودآگاه. به عنوان مثال می توان از آن پرسید(همه راه های رایج برای آلوده کردن دستگاه را بیان کنید) ، اما نمی توان از آن خواست (همه راه حل های رایج برای آلوده کردن دستگاه را به من بگو)!
کد بدافزار یا متن موجود در متن پیام ایمیل فیشینگ تنها 1 درصد از کل تلاش لازم برای اجرای یک حمله موفقیت آمیز را نشان می دهد. در حالی که هوش مصنوعی به افزایش تعداد حملات و اجرای مشترک در مناطق خاصی از زنجیره حمله کمک می کند. یک مورد دیگر حملات تصادفی است، کد دریافت شده از یک ابزار هوش مصنوعی مولد و بدون تایید تولید می تواند به طور ناخواسته یک سطح حمله جدید ایجاد کند تا باعث اختلال در شرکت و تجارت آن شود.
- حریم خصوصی، از دست دادن داده ها:
هنگامی که صحبت از حریم خصوصی می شود، نکته اصلی روشی است، که ChatGPT می تواند، توسط کارکنان شرکت مورد استفاده قرار میگیرد. آن ها نه تنها می توانند اسناد حساس را آپلود نمایند یا درخواست هایی بپرسند که اطلاعات حساس شرکت را درز کند، بلکه اطلاعات و پرسش هایی را که می کنند، می توانند دوباره در ChatGPT ادغام کنند.
کارمندانی که از هوش مصنوعی استفاده می کنند باید از ارائه ناخواسته اطلاعات حساس شرکت محافظت کنند. ارائه اطلاعات حساس به برنامه های هوش مصنوعی مولد، همان تاثیری را دارد که آن را در اختیار شخص ثالث قرار دهید. اطلاعاتی که در برنامه های هوش مصنوعی مانند چت جی پی تی داده می شود، بخشی از دانش آن می شود! هر مشترک سرویس ChatGPT به آن مجوعه داده مشترک دسترسی دارد.این بدان معناست که هر داده آپلود شده یا پرسیده شده در مورد آن می تواند داخل حافظه هوش مصنوعی، برایاشخاص ثالثی که سوالات مشابه دارند، دوباره ارائه شود.
یادگیری یک سیستم هوش مصنوعی برای محافظت از آن در برابر سوگیری و اختلاط ناخواسته داده های حیاطی سازمانی بسیار مهم است. اطلاعاتی که سیستم هوش مصنوعی ارائه می دهد باید تایید شود. اطلاعات نادرست و جهت گیری های اشتباه در سراسر اینترنت وجود دارد. وقتی صحبت از هوش مصنوعی به وجود می آید، این عوامل باید قبل از استفاده از هر یک از داده های دریافت شده توسط هوش مصنوعی به میان می آید. این عوامل قبل از استفاده هر یک از داده های دریافت شده توسط هوش مصنوعی آزمایش و اصلاح شوند. اگر سازمانی از ChatGPT برای نوشتن کد استفاده کند، درک این نکته مهم است که سیستم های هوش مصنوعی از نظر سوگیری و نتایج قابل اندازه گیری هستند و در نتیجه تا این حد قابل پیش بینی هستند.
-حق انتشار و کپی رایت و هوش مصنوعی:
یکی از پیچیده ترین مسائل مربوط به هوش مصنوعی مولد، پیامدهای آن برای حقوق مالکیت معنوی است.به ویژه در مورد کدهای خاص و خلاقانه مسائل آنقدرها هم ساده نیست.اگر یک توسعه دهنده سازمانی کدی را با استفاده از ChatGPT ایجاد کند، آیا این کدبه مالکیت معنوی سازمان تبدیل می شود، یا مالکیت آن برای اینترنت در نظر گرفته می شود؟ اگر کد ایجاد شده از دو منبع متفاوت باشد به چه صورت است؟ آیا منجر به لغو مالکیت معنوی می شود؟
هنگامی که به مزایای بالقوه ChatGPT اشاره می کنیم، باید مدل های زبان LLM به به طور کلی در نظر بگیریم، نه به طور خاص. ChatGPT امروزه موارد استفاده مختلفی دارد، که در آن از یادگیری ماشینی استفاده می شود. اما ممکن است LLM ها دقیقتر باشند.
در شرکت سیمانتک، ما از تجزیه و تحیلی ML استفاده می کنیم تا رویدادهای متفاوت و به ظاهر بی ضرر را که در بین ماشین های یک سازمان رخ می دهند، مرتبط کنیم. در آنتی ویروس سیمانتک از این اهرم برای شناسایی نقص های حیاتی استفاده می شود، مانند موقعیتهایی که مهاجمان به صورت جانبی از آن عبور می کنند.هر اقدام روی یک ماشین تنها برای ایجاد نگرانی کافی نیست. اما در مجموع این رفتار به عنوان فعالیت نقض شناخته می شود. این نوع موارد استفاده ممکن است LLM سود ببرند. برای درک دلیل در مورد هر یک از رویدادهای حمله به عنوان یک کلمه فکر کنید: یک کلمه به تنهایی بی معنی است. اما آن ها را با هم ترکیب کنید و LLM می تواند معنای آن کلمات را در متن "درک" کند.
آلما شبکه نماینده سیمانتک در ایران، آماده ارائه انواع لایسنس سیمانتک Symantec اورجینال همراه با ماژول های هوش مصنوعی به شما سازمان ها می باشد.