אינדקס
תמונות וסרטונים שנוצרו עם AI (בינה מלאכותית) הם שיחת האינטרנט כולו כבר זמן מה. בין אם ליצור אווטאר או סרטון תאריך מיוחד, יצירות אלה נוכחות מאוד בחיי היומיום המקוון, אך לעתים קרובות הן מבולבלות עם תמונות אמיתיות, מה שעלול להוביל להפצת חדשות מזויפות - חדשות מזויפות. אחד מהקהלים המושפעים ביותר שייך לקבוצת הגיל מעל 50 שנים, במיוחד קשישים, ואחד המקומות שהכי מכילים תמונות מטעות שנוצרו על ידי AI הוא פייסבוק. בדוק כמה נתונים ממחקרים שפורסמו בנושא.
נתוני מחקר
התוכן שנוצר על ידי inteligência מלאכותי הפך פופולרי יותר ויותר, במיוחד במדיה החברתית, עם תמונות שמתאימות ל- עמק מוזר - או עמק לא נעים. מושג זה מתייחס לתמונות שנראות אמיתיות, אך יש בהן אלמנטים מלאכותיים הגורמים לאי נוחות למי שרואים אותן. למרות שיש דמיון גבוה לבני אדם אמיתיים, לתמונות בעמק המופלא יש מאפיין מלאכותי, למרות שהן דומות מאוד לטבע. התפיסה הזו, כנראה, קשורה ביותר צעיר.
אנשים מבוגרים מתקשים לזהות את האלמנטים המוזרים והלא טבעיים האלה במדיה שנוצרת על ידי בינה מלאכותית, מה שהופך אותם לסיכון גבוה יותר להיות שולל. אמנות המיוצרת על ידי AI זה לא כל כך ברור לכולם, ומחקרים מראים שאנשים מעל גיל 50 נופלים לטריקים החזותיים האלה במדיה החברתית בהמוניהם.
פלטפורמות כמו פייסבוק הפכו פופולריים יותר ויותר בקרב אנשים מבוגרים וקשישים המחפשים בידור וחברות, מכיוון שמשתמשים צעירים יותר עברו לאפליקציות עדכניות יותר כמו אינסטגרם או טיק טוק. ככל הנראה, האלגוריתם של פייסבוק הפנה בכוונה תמונות שנוצרו בינה מלאכותית לתוך עדכוני המשתמשים במטרה למכור מוצרים ולמשוך עוקבים, כך לפי מאמר של חוקרים בפייסבוק. אוניברסיטת סטנפורד ו - אוניברסיטת ג'ורג'טאון.
למדענים עדיין אין תשובות סופיות לגבי ההשפעות הפסיכולוגיות של אמנות שנוצרת על ידי בינה מלאכותית, מאז שמחוללי תמונות התפרסמו לאחרונה, בערך שנתיים. אבל ההבנה מדוע חברים וקרובי משפחה מבוגרים עלולים להרגיש מבולבלים יכולה לספק רמזים חשובים כדי למנוע מהם להפוך לקורבנות של הונאה או מידע מוטעה.
הבנת איך התרחיש הזה מתרחש חשובה מכיוון שחברות טכנולוגיה כמו גוגל נוטות להתעלם ממשתמשים מבוגרים במהלך בדיקות פנימיות, לפי ביורן הרמן, מדען מוח קוגניטיבי ב אוניברסיטת טורונטו החוקר את השפעת ההזדקנות על התקשורת.
למרות שתהליך ההזדקנות - במיוחד התהליך הקוגניטיבי - עשוי להיראות כמו ההסבר הברור ביותר לחוסר ההתאמה לטכנולוגיה הנוכחית, מחקר מוקדם מצביע על כך שחוסר ניסיון והיכרות עם AI יכולים לעזור להסביר הבנה בקרב קהלים צעירים יותר. והמבוגרים ביותר. הסקר, שבוצע על ידי כמעט 1.300 מבוגרים בצפון אמריקה בגילאי 50 ומעלה, מראה שרק 17% מהמשתתפים אמרו שהם קראו או שמעו על AI.
עד כה, נראה כי הניסויים המעטים לניתוח תפיסת הבינה המלאכותית של אנשים מבוגרים קרובים למה שקורה בפייסבוק. במחקר שפורסם לאחרונה בכתב העת דוחות מדעיים, מדענים הראו ל-201 משתתפים שילוב של תמונות שנוצרו על ידי בינה מלאכותית ושל בני אדם והעריכו את תגובותיהם על סמך גורמים כמו גיל, מגדר ויחס לטכנולוגיה. הצוות מצא כי משתתפים מבוגרים נטו יותר להאמין שהתמונות שנוצרו על ידי AI נוצרו על ידי בני אדם.
בעוד שהמחקר על תפיסותיהם של אנשים לגבי תוכן שנוצר בינה מלאכותית מוגבל, חוקרים מצאו תוצאות דומות עם אודיו המיוצר על ידי בינה מלאכותית. בשנה שעברה דיווח הרמן שלאנשים מבוגרים יש א ירידה ביכולת להבחין בין דיבור שנוצר על ידי אדם לדיבור שנוצר על ידי בינה מלאכותית בהשוואה לאנשים צעירים יותר.
בכללי, סימון גראסיני, פסיכולוג מאוניברסיטת ברגן בנורבגיה, מאמין שכל סוג של מדיה שנוצרת בינה מלאכותית עלול להטעות בקלות רבה יותר צופים מבוגרים יותר בשל "השפעה כוללת" רחבה יותר. גם הרמן וגם גראסיני טוענים שייתכן שדורות מבוגרים לא למדו על המאפיינים של תוכן שנוצר בינה מלאכותית ונתקלו בו בתדירות נמוכה יותר בחיי היומיום שלהם, מה שהופך אותם הכי פגיע כאשר התוכן הזה מופיע על המסכים שלהם.
ירידה ביכולת הקוגניטיבית ואובדן שמיעה (במקרה של אודיו שנוצר על ידי בינה מלאכותית) עשויה להשפיע, אך Grassini גם ציין שהאפקט הזה התרחש גם אצל אנשים בין הגילאים ארבעים עד חמישים. צעירים גדלו בעידן של מידע שגוי באינטרנט והם רגילים לתמונות וסרטונים מדוקרים, הוסיף גרסיני.
כיצד להגן על עצמך מפני תמונות מזויפות שנוצרו על ידי AI

A התפתחות מהירה של בינה מלאכותית זה בהחלט מביא יתרונות רבים לחברה, אבל כפי שניתן לראות בתוכן הזה, עלינו לפקוח עין על ההשלכות שהטכנולוגיה הזו יכולה לגרום לנו. למרות שהפוטנציאל שלו עצום, מכסה תחומים כמו בריאות וחינוך, אי אפשר להתעלם מהחסרונות האפשריים. הייווד טלקוב, מנכ"ל ארגון אבטחת סייבר, מזהיר קשישים מפני השימוש הגובר בבינה מלאכותית בהונאות רומנטיות, ניסיונות הונאות כופר והונאת מס נגד הממשלה.
Talcove הצהיר שיש מספר רב של אנשים המוקדשים לפיתוח טכנולוגיה זו לתמיד, עובדים ללא לאות. מצד שני, יש גם קבוצה המסורה באותה מידה ליישם את כישוריה על הצד השלילי, תוך שימוש בבינה מלאכותית כדי לחדד את התעלולים שלך ולנצל אנשים מבוגרים וקשישים. עם זאת בחשבון, הנה כמה נקודות שיעזרו לך להגן על עצמך וגם להגן על האנשים שזקוקים להנחיות אלה:
- הונאות רומנטיות: עם ההתקדמות בתחום הבינה המלאכותית, הרמאים יכולים כעת ליצור תמונות ויזואליות שנראות אמיתיות ביותר. יש להם גם את היכולת ליצור קול שנועד למשוך קורבן ספציפי. תמונות וקולות ריאליסטיים אלו משמשים כדי לשכנע את הקורבן להשתתף בפגישות וידאו. כאן הטיפ הוא תמיד לאשר את אמיתות התמונה או הסרטון, להשוות אותם עם מדיה אחרת מהאדם עצמו או אפילו לבצע שיחות חיות;
- חילוץ מזויף: בפלטפורמות רבות של מדיה חברתית, לאנשים יש סרטונים קצרים שבהם קולם מוקלט. רמאי יכול להשתמש באחת מההקלטות הללו כדי ליצור שכפול ריאליסטי ביותר של קולו של האדם. בדרך זו, הרמאי יכול לחקות את קולו של ילד, נכד או בן משפחה אחר כדי לנהל שיחה. במהלך השיחה, שאל שאלות ספציפיות ונסו לאשר את זהות האדם בשיחה. לפעמים הקול לבדו אינו אינדיקציה לכך שאותו אדם הוא מי שהם אומרים שהוא;
- תחשוב לפני שאתה לוחץ: הטריק הישן של לחיצה על קישורים יכול להיות קשור גם לבינה מלאכותית. חשוב להיזהר בעת פתיחת קישורים, בין אם באמצעות דואר אלקטרוני או הודעת טקסט. אם השולח אינו מזוהה, הימנע מלחיצה על הקישור. זכרו שהסמארטפונים שלנו הם גם מחשבים. לחיצה אחת על קישור חשוד עלולה לגרום להורדת תוכנות זדוניות למכשיר שלך.
- סמוך על האינטואיציה שלך: בינה מלאכותית יכולה ליצור מסרים שנראה כאילו מגיעים מאנשים שאתה מכיר, תוך שימוש במידע זמין לציבור. זה מגביר את הסיכון ליפול להונאות. היזהר מהודעות דוא"ל והודעות לא רצויות המבקשות מידע אישי, גם אם הם נראים לגיטימיים. סמוך על האינטואיציה שלך כאשר אתה מבחין בדגל אדום כלשהו, כגון שגיאות כתיב, עיצוב מוזר או חוזר על עצמו. אם יש ספק, צור קשר ישירות עם החברה או האדם בטלפון, לא בדוא"ל, כדי לאשר את האותנטיות;
- שמור על התוכנה שלך מעודכנת: בינה מלאכותית יכולה גם לזהות מכשירים פגיעים על ידי בדיקת גרסאות תוכנה או ליקויי אבטחה. כדי לשמור על בטיחות המכשירים שלך, שמור תמיד את המכשיר שלך (סמארטפון, מחברת, טאבלט וכו'), התוכנות והיישומים מעודכנים. זה עוזר להגן מפני ניצול תוכנות זדוניות פוטנציאליות.
איך להגן על קשישים
למרות האתגרים בזיהוי תוכן מזויף (מְזוּיָף חדשות) ככל שהם מתרבים באינטרנט, לקשישים יש לעתים קרובות השקפה שונה על התמונה הרחבה יותר. למעשה, סביר להניח שהם יכירו את הסכנות של תוכן שנוצר בינה מלאכותית מאשר דורות צעירים יותר.
סקר מאת סקר MITER-Haris, הכוללים יותר מ-2.000 אנשים, הצביעו על כך שחלק גדול יותר של הדור הבייבי בום (ילידי 1946 ו-1964) ו דור X (1965 עד 1980) עוסק בהשלכות של deepfakes - אפקטים ועריכות בתמונות ובסרטונים שדי קשה להבחין בהם - בהשוואה למשתתפים ב- דור ה-Z (1997 עד 2012) וה דור Y (ידוע גם כ מילניום, ילידי 1981 עד 1996).
לקבוצות גיל מבוגרים היה שיעור גבוה יותר של משתתפים שדגלו ברגולציה של טכנולוגיית AI ובהשקעה גדולה יותר של תעשיית הטכנולוגיה כדי להגן על הציבור. המחקר גם גילה שמבוגרים יכולים להבחין בצורה מדויקת יותר בין כותרות וסיפורים כוזבים בהשוואה למבוגרים צעירים יותר, או לפחות לזהות אותם בשיעורים דומים.
גם מבוגרים יותר נוטים לכך לצרוך יותר חדשות מאשר בני גילם הצעירים וייתכן שצברו ידע נרחב בנושאים ספציפיים במהלך חייהם, מה שמקשה על הונתם.
Os זומרי הפיכה השתמשו בכלי AI גנרטיביים מתוחכמים יותר ויותר כדי למקד למבוגרים יותר. הם יכולים להשתמש באודיו ובתמונות עמוק נשלף מרשתות חברתיות כדי לדמות בן משפחה מתקשר ומבקש כסף, או אפילו מזייף הופעה של קרוב משפחה בשיחת וידאו.
גם סרטונים, אודיו ותמונות מזויפים יכולים להשפיע מצביעים אנשים מבוגרים לפני הבחירות. זה יכול להזיק אפילו יותר, מכיוון שאנשים בשנות החמישים ומעלה נוטים להוות את רוב המצביעים במדינות כמו ברזיל עצמה.
כדי לעזור לקשישים בחייהם, היקרסון הדגיש את החשיבות של הפצת מידע על AI גנרטיבי והסיכונים שהוא יכול להוות באינטרנט. אחת הדרכים להתחיל לחנך אותם היא הדגשת מאפיינים של תמונות אלו שקריים בעליל, כגון טקסטורות חלקות מדי, שיניים בעלות מראה מוזר, או דפוסים שחוזרים על עצמם בצורה חלקה על פני רקע צילום.
היא מוסיפה כי אנו יכולים גם להבהיר מה אנחנו יודעים ומה לא יודעים על אלגוריתמים של מדיה חברתית וכיצד הם משפיעים על אוכלוסיית הקשישים. זה גם חלק מהזיכרון שמידע מוטעה יכול להגיע אפילו מחברים ובני משפחה.
עם התקדמות deepfakes ויצירות AI אחרות מדי יום, אפילו מומחי הטכנולוגיה המנוסים ביותר עשויים להתקשות לזהות אותם. גם אם אתה מחשיב את עצמך די בקי, המודלים האלה יכולים להיות מטרידים. האתר אדם זה אינו קיים, למשל, מציע תמונות משכנעות להפליא של פרצופים מזויפים שנוצרו על ידי בינה מלאכותית, לרוב ללא סימנים ברורים למקורם החישובי.
למרות שחוקרים וחברות טכנולוגיה פיתחו אלגוריתמים לזיהוי אוטומטי של מדיה מזויפת, הם אינם בלתי ניתנים לטעות, ומודלים של AI מתפתחים כל הזמן נוטים להתעלות עליהם. אחד מה-AI המפורסמים ביותר ביצירת תמונות, ה אמצע מסע, התמודדו עם אתגרים במשך תקופה ארוכה כדי ליצור ידיים ריאליסטיות, לפני שהשיג סוף סוף הצלחה עם גרסה חדשה שפורסמה לפני מספר חודשים. כדי להתמודד עם הגל ההולך וגדל של תוכן שקרי בלתי מורגש והשלכותיו החברתיות, הדגיש היקרסון את חשיבות הרגולציה והאחריות התאגידית.
למידע נוסף על זה ועל חדשות אחרות ב Showmetech TRIO, שלישיית חדשות הטכנולוגיה השבועית שלך:
ואתה, מה אתה חושב על הגל הזה של מידע מוטעה שנוצר על ידי AI? האם היית פעם במצב דומה? תגיד לנו הערה!
ראה גם:
תיירים יוכלו כעת לנסוע בכדור פורח לחלל ב2025.
עם מידע מ: החיה היומית, NORC, NCBI e הלגיון האמריקאי
נסקר על ידי גלאוקון ויטל ב-26/3/24.
גלה עוד על Showmetech
הירשם כדי לקבל את החדשות האחרונות שלנו בדוא"ל.