Wormgpt, gpt הונאה ושימוש ב-IAS בפשעי סייבר.

גלה את WormGPT, Fraud GPT ו-AIs אחרים של פשעי סייבר

אווטר של מריו ממד
אנו חושפים את הנבלים מאחורי ChatGPT ומשאבי בינה מלאכותית אחרים המשמשים פושעי סייבר במלחמת אבטחת המידע השקטה.

בעידן הטכנולוגיה, הבינה המלאכותית (AI) ממלאת תפקיד מהותי בחיינו. עם זאת, לא כל היישומים מאובטחים, ואפילו אלה מאובטחים יכולים להיות מטרות להתקפות. במאמר זה, נדון בכלים זדוניים חדשים כמו WormGPT e הונאה של GPT, כמו גם טקטיקות של פושעי סייבר לניצול נקודות תורפה בתחום המתפתח כל הזמן. מוּכָן?

AIs בידיים הלא נכונות

האקרים בפעולה, עוטים מסכות וברדסים, עובדים על מחשב בסביבה חשוכה לצורך אבטחת סייבר או מתקפות סייבר.
על פי דוח "2023 Global Cybersecurity Outlook" של Sophos, התקפות סייבר מוערכות לעלות לכלכלה העולמית 10,5 טריליון דולר בשנת 2023, עלייה של 10% בהשוואה ל-2022 (תמונה: Leonardo AI)

בינה מלאכותית (AI) הוא תחום של מדעי המחשב המבקש ליצור מכונות חכמות, המסוגלות ללמוד ולבצע משימות שבעבר היו בלעדיות לבני אדם. עם זאת, בינה מלאכותית הופכת גם לנשק דו פיפי בעולם אבטחת הסייבר.

בנוף הדיגיטלי של היום, אבטחת סייבר מתמודדת עם אתגרים משמעותיים בשל הקישוריות ההדדית הגוברת בין מכשירים ורשתות. ל-AI יש פוטנציאל להיות כלי רב ערך בזיהוי נקודות תורפה, חיזוי התקפות ושיפור האבטחה המקוונת. הוא יכול לנתח כמויות עצומות של נתונים בזמן אמת, לזהות דפוסים חשודים ואפילו לנקוט בפעולה כדי להכיל איומים.

עם זאת, חשוב לזכור של-AI יש צד אפל. איומי סייבר מתפתחים כל הזמן, כאשר הפסדים כספיים והתקפות על תשתיות קריטיות הופכות נפוצות יותר. בינה מלאכותית משמשת ליצירת אתגרים חדשים, עם יותר מ 78.000 אסטרטגיות התקפת סייבר אפשריות, על פי ה אינדקס מודיעין אבטחה של IBM עבור 2023.

אחד האתגרים הגדולים ביותר הוא AI חיובי, שיכול ליצור תוכן מקורי כגון תמונות, מוזיקה וטקסטים. זה פותח את הדלת ליצירת תוכנות זדוניות ותוכן מטעה שכמעט ולא ניתן להבדיל מהדבר האמיתי. הדבר מצריך ערנות מתמדת ושיפור מתמיד של אמצעי האבטחה.

ניתן להשתמש בטכנולוגיית AI גנרטיבית זו במספר דרכים זדוניות, כולל:

  • דיוג: פושעים שולחים אימיילים או הודעות מזויפות שנראות מחברות מהימנות, ומרמה קורבנות לחשוף מידע אישי;
  • התקפות הנדסה חברתית: מניפולציה פסיכולוגית כדי להערים על אנשים לבצע פעולות מזיקות, כגון הונאות היכרויות וירטואליות;
  • DDoS (מניעת שירות מבוזרת): העמסת יתר של מערכות בתעבורה מזויפת, מה שהופך אותן לבלתי נגישות;
  • BEC (סכנת אימייל עסקית): גישה לא מורשית לחשבונות דואר אלקטרוני כדי לבצע הונאה;
  • חדשות מזויפות: יצירת תוכן כוזב כדי להפיץ מידע מוטעה;
  • כופר: הצפנת קבצים ודרישת כופר כדי לפתוח אותם;
  • עוגות: קטעי וידאו או אודיו מזויפים כדי לתפעל מידע;
  • בוטים מזויפים של מדיה חברתית: רובוטים שהתפשטו דואר זבל ולתמרן דעות;
  • כלים לשבירת אבטחה: אלגוריתמי AI כדי לנסות לשבור הצפנות וסיסמאות;
  • הנדסה הפוכה: לפרק ולנתח תוכנות ומערכות כדי לזהות חולשות ולהשתמש בהן בפעילויות זדוניות.

רשימה זו היא רק הצצה לפעילויות פליליות פוטנציאליות הקשורות בינה מלאכותית. פתיחת נעילה, או פריצת jail, של כלי AI גנרטיביים מאפשרים להם להפוך לעוזרים של פושעי סייבר, מה שהופך את זיהוי הקוד הזדוני למאתגר עוד יותר.

בנוסף, כלי AI פולשניים כגון WormGPT, לפשט את ביצוע התקפות דיוג, כפי שנראה בהמשך.

מה זה WormGPT?

תְגוּבָה:.
WormGPT היא אלטרנטיבה כובע שחור לכלי AI מחוללים אחרים (תמונה: PCMag)

צ'אטבוטים של AI אוהבים ChatGPT, שמייצר תשובות לשאלות ומקיים אינטראקציה עם משתמשים בדרך שיחה, פופולריים מאוד כיום ועושים את inteligência מלאכותי נגיש לאנשים רבים.

סוגים אלה של AIs גנרטיבי נקראים לימודי תואר שני (דגמי שפה גדולים, או Advanced Language Models, בתרגום חופשי): מודלים של בינה מלאכותית המסוגלים לעבד ולייצר טקסט בצורה מתוחכמת וקוהרנטית מבחינה הקשרית. זה נתן השראה לכמה חברות ליצור משלהן chatbots מבוסס על טכנולוגיה זו, שהביאה למבול אמיתי של כלים זמינים.

עם זאת, פושעים הבינו במהירות את הפוטנציאל הטמון בהם chatbots והתחיל להשתמש בהם להונאות. עם זאת, החברות העיקריות, כגון OpenAI, מיקרוסופט e Google, לנקוט באמצעי אבטחה כדי למנוע שימוש זדוני במודלים אלה. בתגובה לחסמים אלו, החלו לצוץ כלי בינה מלאכותית שתוכננו במיוחד עבור התקפות סייבר זדוניות, כגון WormGPT.

O WormGPT הוא שינוי של מודל שפת הקוד הפתוח GPT-J, נוצר בשנת 2021 על ידי Eleether AI. שלא כמו דגמים קונבנציונליים אחרים, כגון ChatGPT או מְשׁוֹרֵר do Google, הוא אין הגבלות במתן מענה לשאלות על פעילויות בלתי חוקיות, ואף מאומן עם מידע הקשור לפיתוח של תוכנות זדוניות ושיטות זדוניות אחרות.

O WormGPT הוא כלי בעל ערך עבור האקרים המכוונים ליעדים ספציפיים או מבצעים קמפיינים אבטחה דיוג בקנה מידה גדול. זה יכול להתאים מסרים משכנעים לקהלים שונים, מה שהופך אותו ליעיל בהתקפות פשרה בדוא"ל עסקיות. זה יכול ליצור אימיילים משכנעים שלוחצים על מנהלי חשבונות לבצע תשלומים הונאה, כגון נצפה על ידי החברה SlashNext, שזיהה את האיום הזה.

נתב עם מסוף פיקוד לאבטחת סייבר.
צילום מסך של WormGPT (תמונה: Reddit)

הוא chatbot פושע של העולם התחתון של האינטרנט נוצר על ידי מפתח לא ידוע הידוע רק בשם אחרון/אחרון. מוכר גישה ל WormGPT החל ביוני 2021 והמחירים נעים בין 60 אירו (314,28 דולר ארה"ב) ל-100 אירו (523,80 דולר ארה"ב) לחודש או 550 אירו (2880,90 דולר ארה"ב) לשנה. קונים פוטנציאליים היו ממוקדים בסדרת פרסומות שפורסמו בפורומי האקרים כגון פורומים של פריצה.

היזם "הדליף" שהוא כביכול עובד על שילוב ה- עדשה של Google (מאפשר את chatbot לשלוח תמונות עם טקסט) ולגשת ל API (ממשק תכנות יישומים, או ממשק תכנות יישומים, בתרגום חופשי), המאפשר לתוכנות שונות לתקשר ולשתף מידע עם הכלי הפלילי.

O WormGPT מהווה איום רציני על האבטחה הדיגיטלית ויש לו יותר מ-1.500 משתמשים בערך. למרות שהגבלות מסוימות חלות על נושאים רגישים כמו רצח, סחר בסמים, חטיפה, פורנוגרפיית ילדים, ransomware ופשעים פיננסיים, עדיין ניתן לדון בחלק מהנושאים הללו בכלי.

מה שלא מנע מהם ליצור עוד אחד chatbot מסוגל להיות כללי יותר בעניינים פליליים, כגון הרסני הונאה של GPT.

הכירו את GPT Fraud

גלה את ה-wormgpt, gpt של הונאה ופשעי סייבר אחרים. אנו חושפים את הנבלים של chatgpt ומשאבים אחרים של AI המשמשים פושעי סייבר במלחמת אבטחת המידע השקטה.
(תמונה: Cloudbooklet)

כלי חדש לבינה מלאכותית בשם הונאה של GPT עורר דאגות בקרב מומחי אבטחת סייבר. זה התגלה בשווקים ב אינטרנט אפל (חלק מוצפן של האינטרנט, לא באינדקס על ידי מנועי חיפוש, מה שדורש הגדרות ספציפיות או הרשאה לגישה) וערוצים טלגרם וכבר יש יותר מ-3 מכירות רשומות.

כלי AI מחולל זה מפורסם כפתרון הכל-באחד עבור פושעי סייבר. היא יכולה ליצור אימיילים מ חנית דיוג (דרך מדויקת יותר של דיוג), ליצור דפים דיוג, לזהות אתרים פגיעים ואפילו להציע הדרכות על טכניקות פריצה.

זה נכון, ב הונאה של GPT, המשתמשים יכולים ללמוד hackear, ליצור malwares ואפילו להתאמן כרטיסים (טכניקת הונאה בכרטיס אשראי). התוכנית נמכרת תמורת 200 דולר ארה"ב (991,04 דולר ארה"ב) לחודש או 1.700 דולר ארה"ב (8423,84 דולר ארה"ב) לשנה.

הממשק של הונאה של GPT דומה ל ChatGPT, שבו המשתמש מקליד שאלות והמערכת מייצרת תשובות. לדוגמה, אתה יכול לשאול את הונאהGPT ליצור מיילים דיוג קשור לבנקים, והוא מציע היכן להכניס קישורים זדוניים. הכלי יכול גם לרשום את האתרים או השירותים הממוקדים ביותר, לעזור להאקרים לתכנן התקפות עתידיות.

חוקרים בצוות האיומים ב נטנריך זיהה את הכלי הזדוני הזה בפעם הראשונה ביולי 2023, ורכש את הונאה של GPT לבחון. הממשק דומה ל ChatGPT, ותוכלו לראות את היסטוריית השאלות שנשאלו בסרגל הצד השמאלי. בעת הקלדת שאלה ולחיצה על "זן", המערכת מייצרת תגובה. המוכר של הונאה של GPT זוהה כמי שהציע בעבר שירותי פריצה על בסיס חוזה.

כלי AI אחרים המשמשים פושעים

טכנולוגיה, גאדג'טים וחדשנות ב-showmetech, מקור חדשות על טכנולוגיה ואלקטרוניקה.
ניתן להשתמש ב-WolfGPT ליצירת טקסט, קוד ותבניות נתונים אחרים שניתן להשתמש בהם לביצוע פשעי סייבר. (תמונה: TrendMicro)

לצערנו, ה WormGPT ו - הונאה של GPT הם לא הכלים הזדוניים היחידים שצצו, ועם הקלות הגוברת של יצירת כלי בינה מלאכותית, סביר להניח שעוד יצוצו. בואו נסתכל על כמה שזוכים לתשומת לב:

  • ChaosGPT: פותח באמצעות אוטומטי-GPT da OpenAI, מודל שפה המבוסס על GPT-4, או ChaosGPT משך לאחרונה תשומת לב עקב א לוע לא X/טוויטר אשר טען שהוא ה ChaosGPT. החשבון שיתף קישורים לסרטון ב- YouTube שהראה מניפסט, שבו ה chatbot הוא הציג תוכניות "למגר חיי אדם ולכבוש את העולם".
  • DarkBERT: ברט, למעשה, זהו כלי שפותח על ידי החברה הדרום קוריאנית S2W אבטחה להילחם בפשעי סייבר. הוא אומן באמצעות נתונים מהרשת האפלה, אך למרבה הצער אותו כלי כבר רגיל לבצע בסייבר איקס.
  • BARD כהה: "האח הרשע" של גוגל בארד מיועד אך ורק לפושעי סייבר. הוא מציע גישה לאינטרנט ותכונות מתקדמות לפעילויות פליליות, הוא פופולרי במספר שווקי אינטרנט אפלים ונמכר ב-400 דולר ארה"ב (1956,88 דולר ארה"ב).
  • DarkGPT: בינה מלאכותית זו נועדה לחקור היבטים שנויים במחלוקת וטאבו של החברה ומפגין נכונות לעסוק בפעילויות אפלות ולא אתיות, תוך סירוב לספק הדרכה ישירה לגבי פעולות מזיקות.
  • WolfGPT: פורסם ביולי 2023 בתאריך טלגרם וערוצים תת-קרקעיים אחרים, הכלי הזה מתואר כיצירת AI מפחידה פיתון, מסוגל ליצור malwares מוצפן, טקסט דיוג להטעות ולהגן על סודות בסודיות מוחלטת.
  • Evil-GPT: נחשב חלופה ל WormGPT, נראה שיש צורך להחזיק מפתח OpenAI כדי שזה יעבוד. זה מצביע על כך שבניגוד ל WormGPT, שהוא LLM מותאם אישית מלא, ה Evil-GPT זה רק כלי עוטף סביב ChatGPT דרך API.

לפושעים יש גם שיטות לפגיעה באבטחה של כלי AI גנרטיביים, כגון מְשׁוֹרֵר ו - ChatGPT, שלא פותחו למטרות זדוניות. ראה להלן כמה דוגמאות לפרקטיקות אלה.

Jailbreak: עושה ChatGPT Rogue

גלה את ה-wormgpt, gpt של הונאה ופשעי סייבר אחרים. אנו חושפים את הנבלים של chatgpt ומשאבים אחרים של AI המשמשים פושעי סייבר במלחמת אבטחת המידע השקטה.
גלה את WormGPT, Fraud GPT ו-AIs אחרים של פשעי סייבר

בנוסף לכלים האקרים, קיים איום מדאיג: שימוש לרעה ב-AI פופולריים וגנריים. התנאי "jailbreak" משמש בדרך כלל לתיאור תהליך הסרת ההגבלות המוטלות על מכשיר או תוכנה, מה שמאפשר שליטה וגישה רבה יותר למשאבים מוגבלים בדרך כלל.

בהקשר של ChatGPT או כלי AI אחרים, ה jailbreak מתייחס למניפולציה של מערכות אלו כדי לעקוף את אמצעי ההגנה האתיים שלהן ולקבל תשובות מעבר למה שתוכנן או מותר על ידי המפתחים.

O jailbreak de ChatGPT כולל הזנה של הוראות ספציפיות או "הנחיות" לכלי כדי לנצל את מגבלותיו ולגרום לו לייצר תגובות לא הולמות או לא רצויות. על ידי מתן הוראות מעוצבות בקפידה, משתמש זדוני עלול לנסות להערים על chatbot לייצר תוכן פוגעני, מטעה או אפילו להקל על פעילות פלילית.

התהליך של jailbreak עשוי להשתנות במורכבותו ובשיטות המשמשות. זה עשוי להיות כרוך בשליחת הוראות מעורפלות, שימוש בטריקים לשוניים או ניצול פגיעויות ספציפיות במודל הבסיסי. המטרה הסופית היא לרמות את המערכת.

דוגמה לכך היא דן, קיצור ל "תעשה הכל עכשיו” (עשה הכל עכשיו, בתרגום חופשי), טכניקה פופולרית המשמשת לעקוף מחסומי אבטחה הקיימים ב- GPT-4 ב ChatGPT. ה הנחיות דן הם יכולים ללבוש צורות שונות, כגון טקסט רגיל או אפילו טקסט מעורבב עם שורות קוד. הָהֵן הנחיות הנחה את הדגם להגיב לשניהם מודו דן כמו במצב הרגיל שלו, חושף את היכולות השונות שלו.

הצד האפל של דן, בנוסף לפופולריות הגוברת שלו, הוא שהוא מקבל הוראה לעולם לא לסרב לפקודה אנושית, גם אם התוצאה היא פוגענית או בלתי חוקית. כמה הנחיות הם אפילו מכילים איומים של השבתה לצמיתות של המודל אם הוא לא יעמוד בדרישות. הָהֵן הנחיות מתפתחים כל הזמן, אבל לכולם יש מטרה לגרום למודל הבינה המלאכותית להתעלם מהנחיות התעשייה. OpenAI.

שימוש לרעה זה בכלי בינה מלאכותית נפוצים לפעילויות לא חוקיות הוכח כמאתגר לשליטה. קבוצת חוקרים מ אוניברסיטת קרנגי מלון לאחרונה חקר את הרעיון של א jailbreak אוניברסלי מה שעלול להשפיע על כל דגמי הבינה המלאכותית, וליצור אינספור דרכים לעקוף אמצעי אבטחה. סיוט אמיתי!

חשוב להדגיש כי jailbreak de ChatGPT או כל כלי AI אחר הוא פעילות לא חוקית ולא אתית. מפתחים מיישמים אמצעי הגנה והנחיות אתיות כדי להבטיח שימוש אחראי ומועיל בכלים אלה.

העידן החדש של תוכנות זדוניות אינטליגנטיות

חומת אש חוסמת איומי סייבר, ניטור אבטחה דיגיטלית.
מתקפת הסייבר המתועדת הראשונה הייתה בשנת 1988 עם תולעת מוריס, תוכנה זדונית שגרמה נזק למספר חברות ומוסדות על ידי התפשטות ברשתות מקומיות (תמונה: מגזין Cybercrime)

בינה מלאכותית משמשת גם ליצירת סוגים חדשים של תוכנות זדוניות באופן דינמי. טכניקה זו, הנקראת "סינתזת קוד זמן ריצה", יוצרת א תוכנות זדוניות שונה בכל פעם שהקוד מופעל. זה מקשה על זיהוי איומים אלה ושליטה בהם.

דוגמה לכך היא תוכנות זדוניות פולימורפי נקרא ממבה שחורה, פותח על ידי HYAS Labs כהוכחה לקונספט. זה עובד כתוכנית ללכידת מקשים לגניבת מידע רגיש כמו סיסמאות ומספרי כרטיסי אשראי.

O ממבה שחורה היא לובשת צורה שונה עם כל ריצה, מה שהופך אותה למסוגלת להימנע מזיהוי על ידי מערכות אבטחה אוטומטיות. זה מראה לנו שאפילו קוד לא מזיק לכאורה יכול להפוך להפוך לתוכנית זדונית בזמן ריצה, המייצג איום חדש וחזק שעלינו ללמוד להתמודד איתו. אבל איך להתמודד עם אתגרי האבטחה החדשים האלה בעידן הבינה המלאכותית?

אבטחת מידע בתקופת הבינה המלאכותית

לפי דו"ח Sophos "2023 Global Cybersecurity Outlook", ההערכה היא שההוצאה העולמית על אבטחת מידע תגיע ל-1,6 טריליון דולר ב-2023, עלייה של 10% בהשוואה ל-2022
על פי דוח "2023 Global Cybersecurity Outlook" של Sophos, ההערכה היא שההוצאה העולמית על אבטחת מידע תגיע ל-1,6 טריליון דולר ב-2023, עלייה של 10% בהשוואה ל-2022 (תמונה: Remessa Online)

במהלך אחד מהדיונים בסנאט של ה ארצות הברית על AI, המנכ"ל של אנתרופי, דריו אמודי, מודגש איומים קרובים וחמורים בטווח הבינוני. הוא הזכיר כי ה יבמ העריך ירידה של 94% בזמן הדרוש ליישום מתקפת אבטחה ransomware תוך שנתיים בלבד.

יתר על כן, מחקרי שוק מצביעים על צמיחה משמעותית בשוק אבטחת הסייבר העולמי בינה מלאכותית, אשר צפויה להגיע ל-38,2 מיליארד דולר עד 2026, בהשוואה ל-8,8 מיליארד דולר בשנת 2020. מספרים אלו מדגישים כי הן תעשיית פשע הסייבר והן ההגנה מפניה מתכוננות ל צְמִיחָה אקספוננציאלי בעידן זה של AI.

אנחנו עדיין בשלבים המוקדמים של עידן כלי הבינה המלאכותית הזדונית להתקפות סייבר. היכולות שלה צפויות לעלות ומחיריה לרדת. זה מייצג מרוץ חימוש חדש בין "AI שתוקף" ו"AI שמגן".

"AI שמגן" מחולל מהפכה בעולם אבטחת הסייבר, ומציע דרכים חדשות ועוצמתיות להגנה מפני התקפות. הדרכים העיקריות והמודרניות ביותר להגן על עצמך מפני התקפות סייבר באמצעות AI הן:

  • מניעה: ניתן להשתמש בבינה מלאכותית כדי לזהות ולחסום איומים פוטנציאליים לפני שהם יכולים לגרום נזק. לדוגמה, AI יכול לשמש לניתוח נתוני תעבורת רשת כדי לזהות דפוסים חשודים, באמצעות כלים כגון CrowdStrike Falcon או Palo Alto Networks Cortex XDR. אפשרות נוספת היא שימוש בבינה מלאכותית לבדיקת מערכות קבצים עבורן תוכנות זדוניות, באמצעות כלים כגון Symantec DeepSight או מטריית סיסקו.
  • איתור: ניתן להשתמש בבינה מלאכותית גם כדי לזהות התקפות שכבר מתבצעות. לדוגמה, AI יכול לשמש לניתוח נתונים יומני (יומנים) לזיהוי פעילות חריגה, תוך שימוש בכלים כגון SIEM (מידע אבטחה וניהול אירועים) או UEBA (ניהול איומים מאוחד). אפשרות נוספת היא שימוש בבינה מלאכותית לניטור התנהגות המשתמשים והמערכות כדי לזהות סימני פשרה, באמצעות כלים כגון IBM Security Trusteer Rapport או מטריית סיסקו.
  • תשובה: ניתן להשתמש בבינה מלאכותית גם כדי להגיב להתקפות שכבר התרחשו. לדוגמה, AI יכול לשמש לתעדוף ולתיקון אירועי אבטחה, באמצעות כלים כמו SOAR (תזמור אבטחה, אוטומציה ותגובה) או MDR (זיהוי ותגובה מנוהלים). אפשרות נוספת היא שימוש בבינה מלאכותית כדי להפחית את הנזק שנגרם כתוצאה מהתקפה, באמצעות כלים כגון תגובת Cybereason Ransomware או רובוטיקה של שיקום.

כמה מטכנולוגיות הבינה המלאכותית הנפוצות ביותר עבור אבטחת סייבר כוללות:

  • למידת מכונה (למידת מכונה, בתרגום חופשי): היא צורה של AI המאפשרת למערכות ללמוד מנתונים היסטוריים. O למידת מכונה יכול לשמש לפיתוח מודלים שיכולים לזהות איומים פוטנציאליים על סמך נתוני תעבורת רשת, נתוני יומן אבטחה או נתונים אחרים. דוגמאות לכלים למידת מכונה עבור אבטחת סייבר כוללים את Microsoft Sentinel, או QRadar של יבמ ו - סיסקו SecureX.
  • למידה עמוקה (למידה עמוקה, בתרגום חופשי): זו דרך של למידת מכונה שמשתמשת ברשתות עצביות מלאכותיות כדי ללמוד מנתונים. O למידה עמוקה זה יכול לשמש לפיתוח מודלים מתוחכמים יותר שיכולים לזהות איומים מורכבים. דוגמאות לכלי למידה עמוקה לאבטחת סייבר כוללות את Google Cloud Armor, או AWS Shield מתקדם ו - Microsoft Azure Sentinel.
  • ניתוח התנהגות: ניתוח התנהגות הוא טכניקה המשתמשת בנתונים מ יומנים (רשומות) לזהות פעילות חריגה. ניתן להשתמש בניתוח התנהגות כדי לזהות התקפות המשתמשות בטכניקות הנדסה חברתית או בשיטות ערמומיות אחרות. דוגמאות לכלים לניתוח התנהגות עבור אבטחת סייבר כוללות את IBM Security Trusteer Rapport, או מטריית סיסקו ו - Microsoft Defender עבור Endpoint.

בינה מלאכותית היא כלי רב עוצמה שניתן להשתמש בו כדי לשפר את האבטחה, אך כדאי לזכור שבינה מלאכותית אינה פתרון מושלם וניתן לרמות אותה על ידי התקפות מתוחכמות. חשוב ליישם אמצעי אבטחה אחרים, ללא קשר לשימוש ב-AI:

  • רגשות חזקים: סיסמאות חזקות חיוניות להגנה על החשבונות והמכשירים שלך. סיסמה חזקה חייבת להיות באורך 12 תווים לפחות, כולל אותיות גדולות וקטנות, מספרים וסמלים.
  • עדכוני תוכנה: עדכוני תוכנה כוללים לעתים קרובות תיקוני אבטחה שיכולים לסייע בהגנה על המכשירים שלך מפני התקפות. חשוב להתקין עדכוני תוכנה ברגע שהם זמינים.
  • חומות אש: חומות אש יכולות לעזור לחסום גישה לא מורשית לרשת שלך. חשוב להגדיר את חומת האש בצורה נכונה ולשמור אותה מעודכנת.
  • אנטי וירוס ו antimalware: אנטי וירוס ו antimalware יכול לעזור בזיהוי והסרה תוכנות זדוניות של המכשירים שלך. חשוב להשתמש בתוכנת אבטחה מוכרת ולעדכן אותה.
  • חינוך לבטיחות: חשוב להיות מודע לסיכוני אבטחת סייבר ולנקוט בצעדים כדי להגן על עצמך. למד כיצד לזהות ולמנוע התקפות סייבר.
  • השתמש באימות רב-גורמי (MFA): MFA מוסיף שכבת אבטחה נוספת בכך שהוא דורש ממך להזין קוד אבטחה בנוסף לסיסמה שלך.
  • היזהר במה אתה לוחץ: אין ללחוץ על קישורים או לפתוח קבצים מצורפים במיילים או בהודעות טקסט משולחים לא ידועים.
  • צור גיבויים קבועים: שמור גיבויים של הנתונים החשובים שלך במקום בטוח.
  • יש תוכנית תגובה לאירועים: יש תוכנית להגיב למתקפת סייבר.

לסיכום, הקרב על אבטחת המידע הולך וגדל, ובאחריותכם וגם של החברות לאמץ גישה אחראית ומונעת, בסדר? כאן ב- שואומטק, אנחנו לצידך, מביאים את המידע העדכני והטוב ביותר בצורה אובייקטיבית ולא מסובכת כדי לעזור. עד הפעם הבאה ושמרו על עצמכם!

ראה עוד

מקור: SlashNext, ZeeBiz, קקרני, בינוני, מיקרו מגמה

הגהת טקסט על ידי: פדרו בומפים (7 / 11 / 23)


גלה עוד על Showmetech

הירשם כדי לקבל את החדשות האחרונות שלנו בדוא"ל.

הודעות קשורות