דבר העובדים בארץ ישראל
menu
יום שבת כ"א בתמוז תשפ"ד 27.07.24
28.4°תל אביב
  • 25.1°ירושלים
  • 28.4°תל אביב
  • 27.6°חיפה
  • 29.9°אשדוד
  • 27.7°באר שבע
  • 30.4°אילת
  • 29.2°טבריה
  • 25.1°צפת
  • 28.7°לוד
  • IMS הנתונים באדיבות השירות המטאורולוגי הישראלי
histadrut
Created by rgb media Powered by Salamandra
© כל הזכויות שמורות לדבר העובדים בארץ ישראל
תשתיות וסביבה

"אל תסלקו את הגורם האנושי"

צ'אט GPT (צילום: Ascannio / Shutterstock.com)
צ'אט GPT. "זו אומנם לא 'בינה', אלא סטטיסטיקה, אבל הסטטיסטיקה מאפשרת חיקוי של בינה אנושית" (צילום: Ascannio / Shutterstock.com)

לא צריך לחכות לאפוקליפסת רובוטים ולאבטלה טכנולוגית – ד"ר קרני שגל-פפרקורן מאוניברסיטת תל אביב מזהירה מהנזקים שגורמות טכנולוגיות ה-AI, ודורשת פיתוח אחראי שלהן, בלי לדחוק החוצה את יכולת הפיקוח האנושית על המכונות

ארז רביב
ארז רביב
כתב
צרו קשר עם המערכת:

מה משותף לגוגל טרנסלייט, לשואב אבק רובוטי, לסירי, לאוטוקורקט ולצ'אט GPT? הטכנולוגיות השונות האלה חוסות תחת ההגדרה של "בינה מלאכותית" שהומצאה כבר בשנות ה-50 של המאה הקודמת, והפכה בשנים האחרונות לצמד המילים האהובות על משקיעים, על משפיענים, על בלוגרים ועל כתבי טכנולוגיה. מרוץ הבינה המלאכותית מנתב השקעות עתק של עשרות מיליארדי דולרים אל מחקר ופיתוח שאפתני יותר ויותר. בצד המאיים, נפוצות תחזיות שונות ומשונות לגבי חלקים ניכרים מכוח העבודה שיאבדו את משרותיהם ויוחלפו ברובוטים, או אפילו בנבואות אפוקליפסה שיתגשמו.

ד"ר קרני שגל-פפרקורן ממרכז שמגר למשפט דיגיטלי וחדשנות באוניברסיטת תל אביב, סבורה שאף שהמושג כבר שגור בפיו של הציבור הרחב, הוא עדיין קשה להגדרה. "הרבה מאמרים מנסים להגדיר מהי 'בינה מלאכותית' ולא מצליחים למצוא הגדרה אחידה, בין היתר כי מדובר בהרבה שיטות טכנולוגיות תחת מטרייה אחת", היא אומרת ל'דבר'. "חלק מהמאמרים מתמקדים בכמה המערכת 'אוטונומית' או יכולה 'ללמוד בעצמה'. אחרים ביכולת שלה לבצע משימות טוב מבני אדם".

שגל-פפרקורן עוסקת כיום במזעור סיכונים מיישומי בינה מלאכותית, ומעבירה סדנאות ברחבי העולם למחוקקים, לרגולטורים ולארגונים.

לטכנולוגיות יש באמת בינה?
"מלאכותית בלבד. אומנם הטכנולוגיה מחליפה בני אדם בתחומים שעד כה דרשו מומחיות רבה, אבל צ'אט GPT, למשל, הוא רק חיקוי של בינה. בזכות היכולות שלו להתאמן על הרבה מאוד מידע, הוא מסוגל לחזות למה אתה מתכוון ולתת לך תשובה נכונה לשאלה, גם בלי ש'יבין' מה שנשאל כפי שאדם היה מבין את השאלה. זו אומנם לא 'בינה', אלא סטטיסטיקה, אבל הסטטיסטיקה מאפשרת חיקוי של בינה אנושית".

אז מה החידוש פה?
"בעבר האדם הכתיב למערכת מה לעשות בכל רגע נתון, איך לקבל את הפלט. בעזרת בינה מלאכותית, בני האדם מעניקים לטכנולוגיה תשתית להגיע בעצמה לדרך לפתור את האתגרים שאנחנו מציבים לה, ולשפר את עצמה".

שגל-פפרקורן מאמינה שהפיתוחים העתידיים של בינה מלאכותית יכולים להגיע למדרגה כלשהי של בינה. "הטכנולוגיה בעצמה לא חכמה במובן שבן אנוש הוא חכם, אבל מבינים שיהיה לה רצון לשמר את עצמה, ואז היא תבין שעדיף לה שלא ישביתו אותה. לכן צריך להשאיר ידיים אנושיות על ההגה. אל תסלקו את הגורם האנושי".

ד"ר קרני שגל-פפרקורן. "הטכנולוגיה בעצמה לא חכמה במובן שבן אנוש הוא חכם, אבל מבינים שיהיה לה רצון לשמר את עצמה, ואז היא תבין שעדיף לה שלא ישביתו אותה" (צילום: David Scouri)
ד"ר קרני שגל-פפרקורן. "הטכנולוגיה בעצמה לא חכמה במובן שבן אנוש הוא חכם, אבל מבינים שיהיה לה רצון לשמר את עצמה, ואז היא תבין שעדיף לה שלא ישביתו אותה" (צילום: David Scouri)

טכנולוגיות בינה מלאכותית משמשות ליצירת כפילים דיגיטליים מלאכותיים שנראים ונשמעים יותר ויותר דומים למקור האנושי שלהם, וגם מסוגלת לייצר טקסטים בעלי סגנון דומה לסגנון של כותב אנושי שכתביו חשופים אליהן, תכונות שמעוררות לא מעט שערוריות.

בפברואר האחרון נדחתה מרבית תביעתם של יוצרים, בהם הקומיקאית היהודייה שרה סילברמן, נגד החברות Open AI  ומטא, על כך שהאלגוריתמים שלהם התאמנו ללא רשות על חומרים מוגנים בזכויות יוצרים, ומאפשרים ליצור חיקויים של היוצרים, ללא כל רשות ויצירת תחרות לא הוגנת. התביעה תימשך רק לגבי סעיף אחד – גישה לא מורשית ליצירות מוגנות.

שביתת ארגון התסריטאים בארצות הברית בשנה שעברה הובילה לפשרה עם חברות המדיה לגבי גבולות השימוש בתוכנות AI בכתיבה ובשכתוב תסריטים, שקבעה שלא ניתן להעניק לתוכנה זכויות יוצרים כלשהן, אלא רק לבני אדם.

Open AI החליטה לאחרונה לגנוז את אפשרות השימוש בקול מלאכותי במודל העדכני שלה, המזכיר במובהק את קולה של סקרלט ג'והנסן. ג'והנסן, כוכבת הסרט Her, הופיעה בו בקולה בלבד, בדמות בינה מלאכותית קולית שמתאהב בה גיבור הסרט. ג'והנסן סירבה לתרום את קולה לשימוש החברה, והזדעזעה לגלות שהחברה בכל זאת עשתה שימוש בקול מאוד דומה. שחקנית במעמדה יכולה לאלץ את החברה לסגת, אך היא לא יכולה לבטל את הפוטנציאל הטכנולוגי – דגימת קול קצרה של שתי דקות או פחות, מאפשרת לאלגוריתמים לייצר דיפ פייק של צורת הקול של כל אדם ולזייף הקלטות אמינות ביותר, בלי שנאמרו מעולם.

אבל אלגוריתמים כאלה מסוגלים לתפקד רק במצבים שהתאמנו עליהם מראש וניתחו את הדפוסים המגולמים בהם. לעומתם, השכל האנושי מסוגל להתמודד גם עם מצבים חדשים. שגל-פפרקורן מדגישה שבינה מלאכותית אינה דבר חדש. "בדוקטורט שלי עסקתי ב'טייס אוטומטי' בעולם התעופה. הכלי קיים הרבה מאוד שנים, ויש לו אותה מטרה כמו לרכב אוטונומי – לנווט בבטחה תוך התמודדות עם נסיבות לא צפויות, ויותר טוב מטייס אנושי".

אז מדוע רכב אוטונומי הוא סוגיה שונה מטייס אוטומטי?
"יש כמה הבדלים, ואחד המרכזיים הוא במידת השליטה בנזקים שהולכים להתרחש. טייס אוטומטי פועל בנסיבות של פחות איומים, פחות תרחישים לא צפויים, פחות צורך לחזות מראש את השילוב של מספר עצום של קומבינציות אפשריות של תסריטים. לכן הבדל מרכזי אינו קשור רק לטכנולוגיה של הניווט, אלא לנסיבות השונות". התזה שפיתחה שגל-פפרקורן קשורה לתיאור ארבעת השלבים בהחלטה: איסוף מידע, ניתוח מידע, החלטה על סמך הניתוח והוצאה לפועל. לדעתה, טייס אוטומטי מתקרב לסף של מערכת אוטונומית, אך לא חוצה אותו.

רכב טסלה לאחר התנגשות. "יכולה להיות תאונה שנהג אנושי לעולם לא היה גורם לה, מנסיבות ספציפיות שהרכב לא היה ערוך להתמודד איתן" (צילום: SCOTT J. ENGLE via REUTERS)
רכב טסלה לאחר התנגשות. "יכולה להיות תאונה שנהג אנושי לעולם לא היה גורם לה, מנסיבות ספציפיות שהרכב לא היה ערוך להתמודד איתן" (צילום: SCOTT J. ENGLE via REUTERS)

לפי שגל-פפרקורן, רבים חוששים מ"נקודת אל-חזור". "הבינה המלאכותית מתוכננת למקסם את התועלות שמגדירים לה, ועלולה להתעלות על בני האדם באופן בלתי הפיך. למשל, יש מערכת שאומנה להשיג נקודות במשחק ירי למטרה. בניגוד לציפיות המתכנתים, היא למדה שבמקום להתקדם במשחק, עדיף לה להיפסל שוב ושוב כדי לחזור לנקודת ההתחלה, שקל יותר להשיג בה עוד נקודות. ייתכן שמערכות כאלו 'יפנימו' שכדי למקסם את התועלות שהוגדרו להן, אחת המטרות שלהן היא להפסיק לאפשר שליטה של בני האדם בפעולותיהן. זה לא מופרך. יש אנשי מדע שמנסים לחזות את הסיכוים להכחדת האנושות מכל מיני תרחישים, וגם השמרנים בהם חושבים שסכנה כזו בשל בינה מלאכותית היא לא תרחיש זניח".

מה אפשר לעשות?
"רגולציה והגבלה מצד הממשלות, ופיתוח מודעות של 'בינה מלאכותית אחראית' בקרב כל מי שעוסק בפיתוח, בהטמעה או בשימוש במערכות האלו. אבל החשש הוא שמדינות כמו סין ממילא ימשיכו ב'מרוץ החימוש' שנוגע ל-AI, ואם המערב יגביל את עצמו – ייווצר פער טכנולוגי. זה נזק אחד, עתידי ואפוקליפטי".

ההפחדה מאפוקליפסת AI עובדת. לא מדובר רק בתסריטים הוליוודיים ישנים כמו סדרת "שליחות קטלנית", שבה מערכת הנשק האוטונומי סקיינט פיתחה מודעות עצמית ופנתה להשמדה של רוב האנושות ושעבוד של שאריתה, אלא בתנועה חברתית חדשה לעצירת הפיתוח בתחום זה, עד שיוגדרו לו סייגים וגבולות בני אכיפה. בעמק הסיליקון החלו הפגנות נגד המשך הפיתוח בתחום.

אבל גם להפחדות מבינה מלאכותית עלולים להיות מניעים ציניים. האחד הוא ההשתתפות של בכירי עולם הטכנולוגיה כמו אילון מאסק, באזהרות מפניה, בתקווה לצמצם פערים מול מובילי המגמה. אינטרס ציני אחר קשור להסטת המבט הציבורי לעבר העתיד של הבינה המלאכותית, כדי להפחית את תשומת הלב הציבורית לצדדים השליליים של בינה המלאכותית בהווה.

Open AI, למשל, שכרה קנייתים דוברי אנגלית בשכר נמוך, כדי לטייב של מודלי השפה שלה. חלק מעובדים אלו, שעובדים מהבית כפרילנסרים נטולי זכויות עובדים, החלו להשתמש במודלי שפה קיימים לטובת אימון מודלים חדשים, תופעה שמעסיקיהם העקיפים יתקשו למנוע.

ההיסטוריה של בינה מלאכותית ב-80 השנה האחרונות כללה גלים של התלהבות ואחריהן דעיכה בעקבות תוצאות מוגבלות. בגל הנוכחי מודל המימון השתנה. במקום תקציבים ממשלתיים של מוסדות אקדמיים, הבינה המלאכותית זוכה למימון גדול בהרבה מקרנות הון סיכון פרטיות. למרות הריבית הגבוהה, תחום הבינה המלאכותית עדיין מייצר השקעות חדשות של מיליארדי דולרים בחודש, אך מתקשה לייצר מודלים עסקיים. מכאן עולה צורך של קרנות ההון עצמן לייצר התלהבות שכולה מופנית כלפי העתיד, כדי להצליח למכור ברווח השקעות בסטרטאפים בהווה.

שגל-פפרקורן מציגה נזקים נוספים משימוש לא מושכל בבינה מלאכותית. "יש נזקים פיזיים, למשל רכב אוטונומי שגורם לתאונה. זו יכולה גם להיות תאונה שנהג אנושי לעולם לא היה גורם לה, מנסיבות ספציפיות שהרכב לא היה ערוך להתמודד איתן. בארה"ב למשל, נגרמה תאונה משילוב של סינוור רגעי ורכב לבן סמוך ששיבשו את היכולת של הרכב האוטונומי לנתח נכון את המידע שקיבל.

"גם הפרטיות עלולה להיפגע. מקרה ידוע בדרום קוריאה, למשל, הוא צ'אט-בוט שהתאמן על המון מאגרי מידע של אנשים מיישומי דייטים, ותוך כדי 'שיחה' פלט סודות של אנשים אחרים, שהופיעו בתכתובות הפרטיות שלהם.

"יש כמובן גם נזק של אפליה. היה מקרה שהאלגוריתם העניק לגבר מסגרת אשראי גבוהה בהרבה מזו שקיבלה אישתו ללא שום סיבה פרט למגדר. אותו דבר עלול לקרות בכל ההחלטות הנוגעות להקצאת משאבים או בחירה בין אנשים. גם בקבלה לעבודה ידוע שיש הטיות שנוגעות למגדר ולקבוצות מיעוט, גם אם לאף אחד ממעצבי המערכת אין כל כוונה להפלות, ואפילו אם נוקטים אמצעים אופרטיביים כדי לא להפלות.

"באמזון למשל רצו להיעזר באלגוריתם להחלטות ה-HR. האלגוריתם התאמן על מאגר העובדים  הקיימים בחברה. הוא ניסה לחזות מי מנהל מצליח בחברה על סמך קורות החיים, כדי לשכפל את ההצלחה על קורות חיים שמוגשים לחברה כעת. מכיוון שהנתונים שהתאמן עליהם כללו הטיה שמשקפת את המציאות באותה עת, ובתפקידי המפתח היו בעיקר גברים לבנים, גם התוצאות של האלגוריתם היו מוטות לטובת קבוצת האוכלוסייה הזו. הטיה היסטורית, אגב, היא רק סיבה אחת מני רבות לכך שהאלגוריתם יהיה מוטה, ואם לא נערכים מראש, במקרים רבים מגלים את ההטיות רק בדיעבד, אחרי שהנזק כבר נגרם".

אז הבינה המלאכותית נוטה להנציח מגמות קיימות.
"יותר מזה, יש לה היזון חוזר. אם בשל האלגוריתם התקבלו לעבודה הרבה יותר גברים לבנים והם הצליחו בתפקיד, האלגוריתם לומד שהוא צדק, והביטחון שלו שבחירה כזו תהיה נכונה עולה. כלומר, זה רק מעצים את המגמה. ההיזון החוזר בעייתי בהרבה כיוונים.

"גם במובן הפוליטי קיימת תופעה של 'תיבת תהודה' – אנשים מקצינים בדעותיהם בגלל ההיזון החוזר של האלגוריתם. אם בחרת למשל לצפות פעם אחת בתוכן קיצוני, יוצעו לך תכנים יותר ויותר קיצוניים, מתוך ההנחה מבוססת הסטטיסטיקה שכך האלגוריתם קולע לטעמך. בכל פעם שהצופה יצפה בעוד תוכן, ההיזון החוזר יגרום לאלגוריתם לחשוב שצדק, וידרבן אותו להמשיך, ובכך, לפעמים, לגרום לצופה להיות יותר ויותר קיצוני בדעותיו".

שגל-פפרקורן מסמנת עוד נזק פוטנציאלי: בינה מלאכותית מכונה 'קופסה שחורה', משום שהאדם יכול לדעת מה הקלט שנכנס לתוכה ומה הפלט שיוצא ממנה, אבל בגלל המורכבות העצומה, קשה להבין את התהליכים שקרו בין לבין. במקרים רבים החלטות של בינה מלאכותית לא מלוות בהסבר למשתמש על מהם סוגי פרמטרים שהיא שוקלת, או באילו נתונים השתמשה. "חוסר הידיעה בעייתי מכמה סיבות. חוסר השקיפות וחוסר הבקרה על המערכות מקטינים את הסיכוי לגלות טעויות של המערכת ולפתור אותן.

"גם אם האלגוריתם יעיל ברוב המקרים, תמיד יהיה סיכוי לטעויות. בלי הסבר על הסיבות להחלטותיו, כמובן קשה לערער על הקביעות שלו. בארה"ב משתמשים באלגוריתמים כדי לסייע לשופטים לקבוע מסוכנות של נאשם, באופן שמשליך על תהליך השפיטה שלהם. למשל, אם ישחררו אותם בערובה או לא. המערכת מחליטה לגביהם בלי לחשוף מהם השיקולים שלה. ייתכן מצב של נאשם שהמערכת שקלה לגביו נתון לא נכון עובדתית, באופן שישפיע מהותית על החלטתה, והנאשם ובתי המשפט לעולם לא ידעו שההחלטה התבססה על טעות".

דבר היום כל בוקר אצלך במייל
על ידי התחברות אני מאשר/ת את תנאי השימוש באתר
פעמון

כל העדכונים בזמן אמת

הירשמו לקבלת פושים מאתר החדשות ״דבר״

נרשמת!