מכתב נגד AI: אילון מאסק ומומחים קוראים להפסקה בפיתוח

מכתב נגד AI: אילון מאסק ומומחים קוראים להשהות בפיתוח

אוואטר ג'פרסון טפארל
מכתב נגד בינה מלאכותית שנחתם על ידי יותר מ-1000 מומחים מזהיר מפני הסיכונים של המירוץ בפיתוח דגמי בינה מלאכותית (AI) ומבקש השעיית פעילות ל-6 חודשים

המנכ"ל של טויטר, אלון מאסק וההיסטוריון המפורסם בזכות הספר היסטוריה קצרה של האנושות, יובל נח הררי, בין יתר מומחים, חוקרים ומדענים, החליטו לחתום על מכתב שבו הם מבקשים הפסקה בעדכון ובפיתוח הבינה המלאכותית.

המכתב המדובר הופק על ידי ה מכון עתיד החיים (המכון לעתיד החיים, בתרגום חופשי) וממליצה על הפסקה בפיתוח של בינה מלאכותית (AI) של שישה חודשים לפחות, שהוא שקוף. למד עוד על תוכן המסמך, ראה את התרגום של הטקסט המלא והישאר מעודכן בדיונים סביב הנושא הבא.

מה אומר המכתב נגד AI על בינה מלאכותית?

עבודה עצמית ועליית המידע השגוי הם שניים מהחששות העיקריים של טכנולוגיות AI המודגשות במכתב. תוכן הטקסט גם דורש שרגע השעיית הפיתוח עם כלים כגון GPT-4, אמצע מסע ופתרונות AI דומים צריכים להיות "פומביים וניתנים לאימות".

בכל הנוגע להשקעות, המכתב דן גם כיצד OpenAI, מיקרוסופט e Google נמצאים במרוץ טכנולוגי מבלי להסתכל מקרוב כיצד ממשלות ומוסדות ציבוריים נאבקים לעמוד בקצב של כל צעד חדש. כלומר, לפי המסמך, תחום הבינה המלאכותית נכנס למהירות שקשה יותר ויותר לעקוב אחריה ואפילו השחקנים העוסקים בטכנולוגיה מזהים זאת.

"אם לא ניתן להסדיר את ההפסקה הזו במהירות, ממשלות צריכות להתערב ולהפעיל השעיה"

מכתב מ מכון עתיד החיים
טריסטן האריס חתם על המכתב שמזהיר מפני הסיכונים בפיתוח IAS
המכתב הקורא לבלום את פתרונות הבינה המלאכותית שמתפתחים זוכה לתמיכה של מומחים כמו טריסטן האריס, שהיה פעם עובד גוגל במגזר המוצרים (תמונה: מייקל קובאץ'/גטי אימג'ס).

O טקסט הוא גם מזכיר מעבדות בינה מלאכותית שמייצרות טכנולוגיות, אך אינן מסוגלות לבצע הערכות מדויקות ואף אינן מסוגלות לשלוט על המוחות הדיגיטליים הללו. מה שמסקרן את החותמים - ממייסד שותף של אפל סטיב ווזניאק ועד חוקרים פורצי דרך כמו יושע בנג'יו וסטיוארט ראסל ועד לפילוסוף המוצרים של גוגל לשעבר טריסטן האריס - הן שאלות הנוגעות להיקף הפצת המידע. שקרים, החלפת מוחות אנושיים ועצם ה"שליטה" של הציוויליזציה שלנו". במובן זה, המסמך שם לב גם לרגע ההשקעה הטוב ביותר:

"יש לפתח מערכות בינה מלאכותית עוצמתיות רק כאשר אנו בטוחים שההשפעות שלהן יהיו חיוביות והסיכונים שלהן ינוהלו."

מכתב מ מכון עתיד החיים

מכון עתיד החיים וטכנולוגיה אחראית

נוסדה בשנת 2015, מהשקעה של אילון מאסק, ה מכון עתיד החיים מבקש להרחיק התקדמות טכנולוגית חדשה מסיכונים אפשריים לחיים, הן עבור האנושות והן עבור יצורים חיים אחרים. הארגון שם לב לא רק לבינה מלאכותית, אלא גם עוקב אחר הפקות בתחומים כמו ביוטכנולוגיה ואנרגיה גרעינית. המאמץ של מכון זה לתמוך באחריות טכנולוגית הוא חזונו עולם שבו מחלות מסולקות ומתחזקות דמוקרטיות ברחבי העולם.

מכתב בינה מלאכותית נגד השקעה ב-AI
עם עין על בינה מלאכותית, Future of Life, שהפיקה את המכתב נגד AI, ביצעה השקעה מוטעית (תמונה: Expo/Press Photo).

פעולותיו של Future of Life הוכרו על ידי ה האו"ם (או"ם) בשנת 2020: האו"ם מינה את המכון כנציג של החברה האזרחית בנושאים הקשורים בינה מלאכותית. אולם מוקדם יותר השנה, נשיא כלב השמירה הטכנולוגי, מקס טגמרק, נאלץ להתנצל על השקעה שגויה בפלטפורמת תקשורת ימנית קיצונית, Nya Dagbladet השוודית.

מה עמדתן של חברות אחרות בפיתוח AI?

חברות מאוחדות כגון Google e מיקרוסופט נמנע מלהגיב על המכתב מאת מכון עתיד החיים. שתי החברות עוברות יותר ויותר להציע פתרונות AI, לאור ההפקות של ה- OpenAI, החברה שיצרה את ChatGPT. אגב, "אמא" של אחד מה-AI המפורסמים של הרגע קיבלה ממיקרוסופט 10 מיליארד דולר בהשקעה. במקביל, החברה שיצר ביל גייטס משתמשת בטכנולוגיית OpenAI במנוע החיפוש שלה, ה בינג.

פתרונות עם הקרב
גוגל כבר מעבירה את חלקי המשחק כדי להציע פתרונות עם AI חזק כמו ChatGPT, כמו בארד (תמונה: JagranJosh/Reproduction).

החודש, במקרה, ביל גייטס אפילו פרסם א מכתב שבו הוא מתייחס להשפעות האפשריות שפתרונות בינה מלאכותית יכולים להביא לעתיד. גוגל שומרת על השקעותיה בבינה מלאכותית באמצעות ה מְשׁוֹרֵר, שעדיין אינו זמין במלואו לציבור.

חששות מומחים לגבי AI ו-GPT-4

למרות שהוא שופר, הכלי GPT-4 הוא עדיין מספק תוצאות עם כמה הזיות ויכול לשרת משתמשים המשתמשים בשפה מזיקה. אבל יש מי שמאמין שההפסקה, למעשה, צריכה להיות להבין יותר את היתרונות - ולא רק את הנזקים של טכנולוגיות AI. זו דעתו של פיטר סטון, חוקר מאוניברסיטת טקסס באוסטין (ארה"ב).

אמנת מומחי רובוטים
מכתב מומחים חולק דעות לגבי עתיד הבינה המלאכותית (תמונה: ריבוע אינטליגנציה / רבייה).

"אני חושב שכדאי לקבל קצת ניסיון כיצד ניתן להשתמש ב[AIs] נכון או לא, לפני שממשיכים לפתח את [הטכנולוגיה] הבאה. זה לא אמור להיות מרוץ לייצר מודל חדש של בינה מלאכותית ולשחרר אותו לפני האחרים".

פיטר סטון

בניגוד לתפקיד זה, אחד החותמים, עמד מוסטק, מייסד החברה יציבות AI (מוקדש לכלים בעלי בינה מלאכותית), אמר ל-Wired שפתרונות AI הם איום אפשרי על עצם קיומה של החברה. הוא גם נתן חשיבות לאופן שבו יש לבחון השקעות, תוך התחשבות רבה יותר במה שעשוי להיות בעתיד של מירוץ הטכנולוגיה הזה.

"הגיע הזמן לשים את סדרי העדיפויות המסחריים בצד ולקחת הפסקה לטובת כולם, יותר כדי לחקור במקום להיכנס למירוץ עם עתיד לא ברור".

עמאד מוסטק

מכתב נגד AI: תרגום מלא

מכתב נגד איי ג'וש
נשיא מכון עתיד החיים, מחבר המכתב נגד AI, מקס טגמרק (תמונה: ג'וש ריינולדס/Getty Images).

השהיית ניסויי בינה מלאכותית ענקית: מכתב פתוח

אנו ממליצים לכל מעבדות הבינה המלאכותית (AI) להשהות מיד את האימון במערכות בינה מלאכותיות חזקות יותר מ-GPT-4 למשך שישה חודשים לפחות

מערכות בינה מלאכותית עם אינטליגנציה המסוגלת להתחרות בבני אדם עלולות להוות סיכונים עמוקים לחברה ולאנושות, כפי שהוכח ממחקר מקיף של אוניברסיטת קורנל, הספרים בעיית היישור (בריאן כריסטיאן, 2020), להיות אדם בעידן הבינה המלאכותית (Max Tegmark, 2017) ועל ידי מחקרים אחרים - על התקדמות בתחום, אתיקה, השפעה על שוק העבודה, סיכונים קיומיים - בנוסף להיותם מוכרים על ידי מעבדות AI ידועות. כפי שנאמר בעקרונות הבינה המלאכותית של אסילומאר, "בינה מלאכותית מתקדמת יכולה לייצג שינוי עמוק בהיסטוריה של החיים על פני כדור הארץ, ויש לתכנן ולנהל אותה בזהירות ועם משאבים תואמים". למרבה הצער, רמה זו של תכנון וניהול לא מתרחשת, למרות שבחודשים האחרונים נראו מעבדות בינה מלאכותית מתחילות במרוץ שיצא משליטה לפיתוח ולרתום מוחות דיגיטליים חזקים יותר, שאף אחד - אפילו לא יוצריהם - יכול להבין. , לחזות, או לשלוט בצורה מהימנה. 

כעת, מערכות ה-AI הנוכחיות הופכות להיות מסוגלות להתחרות בבני אדם במשימות באופן כללי, ועלינו לשאול את עצמנו: אנחנו חייבים לתת למכונות להציף את ערוצי המידע שלנו בגיור ובאי-אמת? אנחנו חייבים להפוך את כל העבודות לאוטומטיות, כולל אלה המשביעות רצון? אנחנו חייבים לפתח מוחות לא אנושיים כדי שיוכלו בסופו של דבר לעלות על מספרם ולהרבות באינטיליגנציה שלנו, להפוך אותנו למיושנים ולהחליף אותנו? אנחנו חייבים להסתכן באיבוד שליטה על הציוויליזציה שלנו? אין להאציל החלטות כאלה למנהיגי טכנולוגיה שאינם נתמכים. יש לפתח מערכות AI עוצמתיות רק כאשר אנו בטוחים שהשפעותיהן יהיו חיוביות והסיכונים שלהן ינוהלו.. הסתמכות זו חייבת להיות מוצדקת ומוגברת ביחס לגודל ההשלכות הפוטנציאליות של המערכות. עמדת OpenAI לאחרונה בנושא בינה מלאכותית גנרטיבית קובעת כי "בשלב מסוים, ייתכן שיהיה חשוב לבצע סקירה עצמאית, לפני שמתחילים להכשיר מערכות בעתיד, למאמצים מתקדמים יותר, כגבלת קצב הצמיחה של המחשוב המשמש ליצירת דגמים חדשים [של AI]". אנחנו מסכימים. עכשיו זה הזמן. 

לדוגמה, המלצנו לכל מעבדות הבינה המלאכותית (AI) להשהות מיד את האימון במערכות בינה מלאכותיות חזקות יותר מ-GPT-4 למשך שישה חודשים לפחות. הפסקה זו חייבת להיות ציבורית וניתנת לאימות, ולכלול את כל השחקנים המרכזיים. אם לא ניתן להסדיר הפסקה כזו במהירות, על השליטים להתערב ולהפעיל השעיה.

מעבדות בינה מלאכותית ומומחים עצמאיים צריכים להשתמש בהפסקה זו כדי לפתח ולהטמיע במשותף סדרה של פרוטוקולי אבטחה משותפים לתכנון ופיתוח של AI מתקדמים, שנבדקים ומאומתים בקפדנות על ידי מעריכים של צד שלישי. פרוטוקולים אלה חייבים להבטיח שמערכות הנשלטות על ידי תקנים אלה מאובטחות מעבר לספק סביר - דוגמה אחת היא עקרונות הבינה המלאכותית של ה-OECD, המחייבים מערכות בינה מלאכותית "לתפקד כראוי ולא להפגין סיכוני אבטחה לא אמינים". זֶה לא המשמעות היא הפסקה בפיתוח AI באופן כללי, אלא פשוט יציאה ממרוץ מסוכן לעבר דגמי 'קופסה שחורה' בלתי צפויים, גדולים יותר ויותר ובעלי יכולות מתפתחות.  

מחקר ופיתוח בינה מלאכותית חייבים להתמקד בהפיכת המערכות החזקות והמתקדמות של היום למדוייקות, מאובטחות, ניתנות לפירוש, שקופות, חזקות, מיושרות, אמינות ונאמנות יותר.

במקביל, מפתחי AI חייבים לעבוד עם קובעי מדיניות באופן נחרץ כדי להאיץ את הייצור של מערכות ממשל קפדניות של AI. הם חייבים לכלול, לכל הפחות: 

  • רשויות רגולטוריות חדשות ובעלות יכולת המוקדשות לבינה מלאכותית;
  • אימות וניטור של מערכות בינה מלאכותית חזקות ביותר עם תרומה גדולה ביכולת החישוב; 
  • מערכות מקור ומיתוג שיעזרו להבחין בין מודלים אמיתיים לסינטטיים של מוחות דיגיטליים, כמו גם מעקב אחר דליפות של טכנולוגיות אלה; 
  • מערכת אקולוגית משגשגת של הסמכה וביקורת; 
  • מחויבות נזק ממערכות בינה מלאכותית;
  • מימון ציבורי חזק מספיק למחקר טכני בנושא אבטחת בינה מלאכותית; זה
  • מוסדות ממומנים היטב להתמודדות עם השפעות כלכליות ופוליטיות חמורות שגורמים בינה מלאכותית (במיוחד ביחס לדמוקרטיה). 

האנושות יכולה ליהנות מעתיד פורה עם AI. לאחר שיצרנו בהצלחה מערכות בינה מלאכותיות חזקות, אנו יכולים לחגוג כעת 'קיץ של בינה מלאכותית', בו אנו קוצרים את הפירות, מהנדסים את המערכות הללו לטובת כולם ונותנים לחברה הזדמנות להסתגל. החברה 'לחצה על כפתור ההשהיה' בטכנולוגיות אחרות בעלות פוטנציאל השפעות קטסטרופליות עבור כולם - כמו שיבוט, אאוגניקה והנדסה גנטית. אנחנו יכולים לעשות את אותו הדבר כאן. בואו ליהנות מקיץ ארוך של AI, לא למהר אל הסתיו.

ראה גם:

כיצד להשתמש ב-Midjourney ליצירת תמונות המופעלות על ידי AI

מקור: קווית | Tech Crunch | עתיד החיים | סגן חדשות העולם

נסקר על ידי גלאוקון ויטל ב-29/3/23.


גלה עוד על Showmetech

הירשם כדי לקבל את החדשות האחרונות שלנו בדוא"ל.

הודעות קשורות