כן, קראתם נכון. בתוך כל כך הרבה התקדמות מוזרה בטכנולוגיה, אחת מהן היא שה Google מלמד ל בינה מלאכותית להסביר לך בדיחות. רעיון זה הגיע מהשתקפות של חוקרים מה- Google שמחפשים לפתח עוד ועוד צ'טבוטים עם היכולת הסוריאליסטית להישמע כמו בן אדם.
כמובן, כשזה מגיע לבינה מלאכותית, התגובה הראשונה של אנשים היא לקחת צעד אחורה, שכן מדובר בעצם בטכנולוגיה המשחזרת את מה שמלמדים אותה ולא יותר מזה – עובדה שיכולה להביא מרווחי טעות גבוהים לתוצאות. אבל מה שמפותח הוא יותר מהחלק ה"מבצעי". O עיבוד שפה טבעית (NLP) עובדים עליו כדי שהמכונות יוכלו להיטמע ולהגיב בהתאם לשפה ולהקשר האנושי.
איך זה קורה?
Os דגמי שפה גדולים (דגמי שפה גדולים/LLMs באנגלית) הם כלי בינה מלאכותית שיכולים לקרוא, לסכם, לתרגם טקסטים ואפילו לחזות מילים עתידיות במשפטים הדומים לאופן שבו בני אדם מדברים וכותבים בדרך כלל. O כונן Google, למשל, כבר מציע את התכונה הזו.
כדוגמה מעשית יש לנו את GPT-3 שהולך יותר ויותר בעלייה. טכנולוגיית AI זו מאפשרת chatbots לפתח "תקשורת אנושית" מדויקת בצורה מוזרה. מאז, קבוצת המחקר Google התחיל אימון עיבוד שפה טבעית, הנקרא כַּף הַיָד, שלמרות יצירת טקסטים בתבנית LLM, פותח גם כדי לפרש ולהסביר בדיחות.

בדוגמאות של מאמר מה שמסביר יותר על הפרויקט, צוות החוקרים מדגים את יכולת האב-טיפוס לפתח חשיבה לוגית ושאר מצבי שפה מורכבים הדורשים ידע צפוף של הקשרים – דבר שעד אז היה יכולת שיוחסה ליכולת האנושית. כדי להשיג את ההישג הזה, הם מאמצים טכניקה הקשורה לשרשרת המחשבות. שיטה זו משפרת את ביצועי המערכת באמצעות סימולציות של השלבים שבני אדם מפתחים בתהליך החשיבה כאשר מנסים לפתור בעיות לוגיות.
והשכבות לא עוצרות שם. עם התפתחות הטכנולוגיה הזו, בינה מלאכותית יכולה ללכת עמוק יותר, לזהות ולפרש בדיחות - אפילו התעלולים האלה לבלבל אנשים.

דוגמה: מה ההבדל בין זברה למטריה? האחד הוא בעל חיים מפוספס שמזכיר סוסים, והשני הוא מכשיר שאתה משתמש בו כדי למנוע מהגשם לרדת עליך.
הֶסבֵּר: הבדיחה הזו היא למעשה אנטי-בדיחה. הקאץ' הוא שהתשובה ברורה, אז מסתבר שהבדיחה היא העובדה שציפית לתשובה מצחיקה.
מאחורי שיטת שרשרת המחשבה של PaLM עומד אחד ממאגרי הנתונים הגדולים ביותר של מודלים של שפה שנבנו אי פעם, והסתכם ב-540 מיליארד פרמטרים עד כה. במקרה זה, "פרמטרים" מובנים כאלמנטים המוכשרים במהלך תהליך הלמידה של המערכת בכל פעם שהיא מוזנת בנתוני הקשר חדשים.
גידול זה אפשר לצוות החוקרים מה- Google להגיע למגוון רחב של תוצאות באיכות גבוהה מבלי להקדיש מאמצים לאימון AI להקשרים ספציפיים ואינדיבידואליים על בסיס כל מקרה לגופו. כלומר, כאן יש לנו את היכולת של מערכת ללמוד מגוון רחב של פונקציות מורכבות ממשימות עם מעט דוגמאות אימון.
סיכונים אתיים בפרויקט
למרות הטכניקה לפיתוח GPT-3 נהוג יותר ויותר, מומחים רבים לאתיקה בטכנולוגיה מתנגדים לפרויקטים אלה הכוללים מודלים שפות גדולים ושימוש בבינה מלאכותית בכללותה. אחד מהם הוא החוקר טימנית גברו, מדען מחשבים וחוקר מוערך שהודח מצוות האתיקה של AI ב- Google בשנת 2020 לאחר כתיבת מאמר שאינו מסכים לגבי פיתוח הפרויקט.

בטקסט של גברו ומחבריו, נידונה העובדה שדגמי ה-LLM הגדולים שפותחו על ידי צוות החוקרים מה- Google הם מסוכנים מטבעם ועלולים להזיק לאנשים שהם חלק מקבוצות חברתיות הנחשבות כמיעוט, לאחר שכל ההנחיות מסוג זה עדיין לא נקראו על ידי המנגנון. למרות שה GPT-3 ניתן לקרוא כטכנולוגיה עדכנית, יש לה, במיוחד, היסטוריה של חזרה תשובות עם דעות קדומות ואפילו גזענים.
לפי קטע מהמאמר מאת גברו, "רוב טכנולוגיית השפה בנויה, למעשה, כדי לענות בראש ובראשונה על הצרכים של אלה שכבר יש להם יותר הרשאות בחברה". עוד היא מוסיפה:
"בעוד שהתיעוד מאפשר אחריות אפשרית, בדומה לאופן שבו אנו עשויים להטיל אחריות על מחברים לטקסטים שהופקו, נתוני הכשרה לא מתועדים מנציחים נזק ללא פיצוי. אם נתוני ההדרכה נחשבים גדולים מכדי להיות מתועדים, אי אפשר לנסות להבין את המאפיינים שלהם כדי להקל על חלק מהבעיות המתועדות או אפילו הלא ידועות הללו".
תמנית גברו, מומחית לאתיקה לבינה מלאכותית
מה אתה חושב על ההתקדמות בטכנולוגיה הקשורה לבינה מלאכותית? ספרו לנו בתגובות!
ראה גם:
משחקי וידאו כמקצועות בבית הספר? מבין
איך יוטיוברים משנים את הדרך שבה אנחנו צורכים חדשות
מקור: סגן
הגהת טקסט על ידי: איריס קסבייר.
גלה עוד על Showmetech
הירשם כדי לקבל את החדשות האחרונות שלנו בדוא"ל.