top of page
תמונת הסופר/תרויטל קרמר

גוגל מסתבכת עם מנוע הבינה המלאכותית החדש ג'ימיני בגלל פוליטיקת זהויות



הנה סיפור שאפשר לעשות ממנו סרט, בחיי!

אנחנו חיים בתקופה היסטורית משוגעת, קבלו את הסיפור על מאחורי הקלעים של השקת Gemini (מנוע תמונות מבוסס AI#) מבית גוגל.


ההשקה החגיגית שהייתה אמורה לתת פייט ל-OpenAI בגלגול המחודש של Bard הייתה אמורה להציג לעולם מודל תמונה טוב יותר, אבל נדחתה כמה פעמים בגלל שבOepnAI לא הפסיקו לחדש ולשפר.

הקצבים הפכו להיות באמת משוגעים ולקח הרבה זמן עד שבגוגל היו בטוחים במוצר החדש.


לא פלא שבגוגל חששו - ההשקה הראשונית של בארד הייתה אסון עם ירידה של 9% במניה ומבוכה רצינית כשהמנוע התחיל לדקלם עובדות שאין בינן ובין המציאות שום דבר, עניין שזיכה את בארד בפי עובדי החברה בתואר "שקרן פתלוגי". היום, כבר קוראים לזה בשם החמוד "הזיות" (באנגלית זה נשמע טוב יותר), אבל בשורה התחתונה - המודל לא דילוור ובחברה החליטו לשפר ולעבוד באמת קשה, במקביל עבדו על המיתוג המחודש כג'ימיני כדי שהבושה לא תדבק בו לנצח.


הקיצר, בחודש שעבר שוחרר לעולם המוצר החדש. נוצץ יותר, גדול יותר וגם....

טיפש יותר.

כמה טיפש?

עד כדי הורדת המניה של גוגל כולה שוב ב-5% ועם רמיזות בשוק ההון שהפעם בכירים יתחילו לשלם על הטעויות בכסאות שלהם.


מה בעצם קרה שם?

כמו בחברות הכי טובות, גם כאן התכוונו לעשות ממש טוב והדרך לגיהנום הייתה רצופה בכוונות מעולות - מהנדסי המודל החדש רצו לוודא שהם לא חוזרים על טעויות העבר, ונותנים ייצוג שווה לכל סוגי האנשים.

הרעיון הוא שאם תחפשו "דוקטור" יעלו גם תמונות של נשים וגם של גברים, גם של שחורים וגם של לבנים ואסאייתים ובאופן כללי, שלא ניתקל בייצוג אחד גנרי.

סה"כ מחשבה הגיונית ומתחשבת.


העניין הוא שבגוגל לקחו את זה צעד אחד קדימה ובג'ימיני התחילו לדווח על כל מיני מקרים מוזרים של אנשים שחיפשו "מנהיג בשנות השישים" וקיבלו את מרטין לותר קינג המלוכסן או הלבן.

תגובת החברה שכדאי למקד את החיפוש ולחפש "מנהיג שחור" הפכה את כל עניין הזהויות (שגם ככה מטורלל בארה"ב, כן?) למשהו שדווקא מעודד גזענות ולא להיפך. גם חיפושים של דמיות היסטוריות נתקלו בסירוב של הבוט או בהשאלות מעולמות לא קשורים. חיפוש אחר "האבות המייסדים" האמריקאים נותן יצוג של שחורים של היו בכלל ביבשת באותו הזמן, שחקני כדורסל יכולים להיות נמוכי-קומה, נשים מלוכסנות נמצאו באיזורים אליהן מעולם לא היגרו בהיסטוריה. בקיצור, בלאגן שלם.


למה זה קרה?

מי היו המהנדסים שהחליטו להזין את מאגרי הדטה בתמונות שלא תואמות את המציאות בצורה כל כך חובבנית?

מסתבר שבגוגל, תרבות "הגיוון התרבותי" מאוד חזקה.

כמה חזקה?

עד כדי כך שבכל ישיבות תכנון מוצרים יושב נציג שאחראי לוודא שאין הטיות בכל החלטה שלא תצא.

באוירה ארגונית כזו, מעטים האנשים שיצליחו לומר כמה זה מוטעה לבנות מודל מהסוג הזה (המעטים אגב שכן הצביעו על בעיות כאלה תוייגו כגזענים ופוטרו), וגם כמה זה מוזר שבתרבות ארגונית שמקדשת גיוון, יש 98 אחוזי דמוקרטייים שחשובה להם מאוד פוליטקת הזהויות ואין להם מתנגדים בכלל?


מה הסיפור הזה מלמד אותנו?

1. זו יכולה להיות החברה הכי טובה בעולם עם האנשים הכי מוכשרים שכסף יכול לקנות, ועדיין להוציא מוצר בדיחה כי התרבות הארגונית לא מאפשרת ביקורת.

2. גוגל כבר מזמן לא החברה החדשנית שחשבנו שהיא. כיום, מדובר בחברה בעייתית שמפספסת את השוק (מי אמר ענן?) ובעיקר נשענת על הצלחות העבר של מנוע החיפוש והיוטיוב. אישית, יכולה לומר שסיבוב במשרדי החברה תמיד מעורר בי תחושה קשה של הדוניזם ולא של מקום בו צומחים רעיונות חדשים.

3. מצד שני - מהמשבר הזה אפשר לצמוח. גם מטא הייתה בסיפור הזה לפני איזה שנתיים והמשבר הביא אותה להתייעלות ארגונית, קפיצה טכנולגוית ושינוי אסטרטגיה והנה, כיום היא במקום טוב יותר. בואו נקווה שזה גם המקרה כאן!

4. טעיתם לאחרונה? Redefine mistakes - אם בארזים נפלה שלהבת וכו':)


לסיום, קבלו שלל תמונות של פילוסופים יוונים, האפיפריות ואבי האומה וויקינגים שלא נראו לאף יוצא MIT מוזרות כששוחררו לאוויר העולם. למיטיבי לכת, ככה התנצלה גוגל על המחדל (כלומר, ניסתה בצורה לא ממש מוצלחת, עד שהבורד ינקוט צעדים משמעותיים יותר כנראה).








Comments


bottom of page