זה התחיל כמעט במקרה.
אח שלך התלהב ממשהו שהוא “שאל את הצ’אט”, קולגה בעבודה המליצה לבדוק כלי ש"יכול לנסח לך הכול בשנייה".
נכנסת רק להציץ. שאלה אחת, ניסוח שני, רעיון שלישי – ומשם, כמו אליסה בארץ הפלאות, מצאת את עצמך נופל לתוך מערה.
רק שזו לא הייתה פנטזיה צבעונית, אלא מערכת חכמה, חלקה, משכנעת.
אתה שואל – זה עונה. אתה מגמגם – היא מנסחת.
וזה כל כך נוח, כל כך אפקטיבי, שבלי לשים לב, אתה כבר לא בטוח מי עושה פה את רוב העבודה.
הבינה המלאכותית נכנסה בשקט – אבל שינתה את הקצב, את הקול, את הדרך.
וכמו בכל קסם טוב – השאלה היא לא רק איך הוא עובד, אלא מה הוא מסתיר.
היא יודעת לעזור לנסח, לסכם, להסביר, לתכנן.
היא זמינה בכל שעה, לא שופטת, לא מתעייפת – ותמיד מחזירה תשובה.
מורים משתמשים בה להכין מערכים, הורים מתייעצים איתה על דילמות, תלמידים שואלים שאלות שבכיתה לא נעים.
כותבים נעזרים בה לדייק, אנשי מקצוע בודקים רעיונות.
והכי חשוב – פתאום יש גישה כמעט חופשית לידע, תובנות, סדר – שהיו פעם שמורים רק למי שידע לחפש, או הכיר את המילים הנכונות לשאול.
זה לא רק נוח. לפעמים זו ממש תחושת חיזוק: יש לי עם מי להתייעץ, יש מי שעוזר לי לחדד, לארגן, להבין.
וזה לגמרי בסדר.
1. עצלות קוגניטיבית
כשהמערכת יודעת לנסח, להסביר ולסכם – למה שנטרח? כך מתפתחת עצלות קוגניטיבית (cognitive laziness). תופעה שבה המוח, שמטבעו שואף לחיסכון אנרגטי, בוחר שוב ושוב בפתרון הקל, גם כשהוא יודע לחשוב לבד.
איפה זה פוגש אותנו? בעיקר אצל ילדים ומתבגרים.
המוח שלהם עדיין בתהליך התפתחות – במיוחד באזורים שאחראים על ויסות רגשי, פתרון בעיות, תכנון והסקת מסקנות.
כשמחליפים תהליכי חשיבה עמוקים בתשובות מיידיות (ומנוסחות היטב) – יש פחות מקום לאי ודאות, ניסוי וטעייה, או טעויות שמהן באמת לומדים.
זו תופעה שלא התחילה עם ה-AI.
כבר בעשור הקודם, מחקרים התריעו מפני ההשפעה של שימוש תדיר בגוגל או ויקיפדיה במקום הבנה עמוקה.
המסר היה ברור: שימוש תכוף בפתרונות אוטומטיים מקושר לירידה בהתמדה בלמידה, לפיתוח דפוסי חשיבה שטחיים, ולפגיעה באמון ביכולת להבין לעומק.
(Barr et al., Computers in Human Behavior, 2015)
2. קושי בקבלת החלטות ופגיעה בביטחון העצמי
בהתחלה זה כלי עזר.
בהמשך – קשה לקבל החלטה בלעדיו.
אנחנו מבקשים ניסוח, שואלים שאלה, מבקשים אישור – ולאט לאט, מחליפים את שיקול הדעת שלנו ב"אישור מערכת".
מחקרים מראים: כשאנשים מקבלים תשובה ממערכת אלגוריתמית שנשמעת בטוחה בעצמה – הם נוטים לסמוך עליה, גם כשיש להם ידע קודם בנושא.
ובטווח הארוך? ההסתמכות הזו עלולה לערער את הביטחון העצמי ולפגוע ביכולת לקבל החלטות עצמאיות.
גם מומחים, כך נמצא, מעדיפים לעיתים שיפוט של מערכת – על פני ההבנה האישית שלהם.
(Logg et al., Nature Human Behaviour, 2023)
3. חוסר סבלנות
התרגלנו לקבל תשובה מיד.
ואז כשמישהו לידנו חושב לאט, מספר סיפור מסורבל או פשוט מתעכב – אנחנו רוצים "להריץ אותו על כפול 2".
זו לא רק חוסר סבלנות – זה שינוי בקצב הפנימי שלנו, שמתרגל לתגובה מיידית – ודוחק החוצה את הקצב האנושי, האיטי, הלא צפוי.
התקשורת כבר לא "זורמת" – היא נמדדת.
מחקרים מצביעים על כך שמהירות התגובה של מערכות בינה מלאכותית משנה את ציפיות הזמן שלנו גם במצבים אנושיים, ויוצרת סטנדרט חדש של זמינות,
בהירות – ומיידיות.
(Ralph & Monu, AI & Society, 2021)
4. פגיעה באינטימיות ובאמפתיה
האם צ'אט שנשמע מבין ומנסח ברוך באמת יכול להחליף קשר אנושי? המערכת עונה מיד, לא שופטת, לא מסתבכת – וזה נעים.
אבל מתחת למילים אין רגש, אין נוכחות, ואין מישהו אמיתי. וכאן מתחיל הנזק: ככל שאנחנו משתפים אותה יותר – אנחנו מתרגלים לקשר בלי מורכבות, בלי שתיקות, בלי פנים שמולנו. לאט לאט, נשחקת היכולת להחזיק קשר רגשי אמיתי – זה שדורש סבלנות, הקשבה, ואומץ להיות פגיע. אנחנו יוצרים פחות קשרים עמוקים, פחות מוכנים להכיל כאב של אחרים, ופחות יודעים מה לעשות כשמישהו קרוב באמת צריך אותנו.
(Ciechanowski et al., 2019)
5. שעתוק של הטיות ישנות
המודלים הכי מתקדמים בעולם לא נולדו באוויר ריק. הם למדו לקרוא, להסיק ולנסח מתוך טקסטים שכתבו בני אדם – עם כל מה שאנחנו סוחבים איתנו: הנחות יסוד, סטריאוטיפים, תפיסות מעמדיות, וגזענות סמויה. אז גם אם המערכת נשמעת חכמה, פתוחה ומכילה – היא עלולה לשכפל עמדות ישנות, בלי כוונה ובלי מודעות. ולפעמים, דווקא בגלל הניסוח הבטוח והבהיר – קשה לראות שהתגובה מוטה.
למשל: כשמבקשים מהמערכת לנסח תיאור לדמות של "מנכ"ל מצליח" – ברוב המקרים היא תתאר גבר לבן. לעומת זאת, אם תבקשי תיאור ל"עוזרת בית" – יש סיכוי גבוה שתקבלי תיאור בגוף נקבה ממעמד נמוך, לעיתים גם עם מוצא אתני ספציפי. המחיר? תלמידים שגדלים עם מערכת שמעדיפה שמות מסוימים, סגנונות דיבור מסוימים, תפיסות מגדר מסוימות – פשוט לומדים שזו "התשובה הנכונה". וככה, במקום לפרק סטריאוטיפים – אנחנו מקבעים אותם, רק בשפה יותר יפה.
(Buolamwini & Gebru, 2018; Bender et al., 2021)
6. מידע מבריק – אבל לפעמים פשוט שגוי
מערכות AI יודעות לנסח תשובות מרשימות – גם כשהן ממציאות. הן עלולות לשבש מקורות, להמציא שמות, לצרף עובדות שלא התרחשו – ולהגיד את זה בטון בטוח, ברור, כמעט סמכותי. וזה בדיוק העניין: כשהמערכת נשמעת בטוחה – אנחנו נוטים להאמין לה.
גם ילדים, מבוגרים ואפילו אנשי מקצוע– מקבלים את המידע הזה כאמת מוחלטת, בלי לשאול, לבדוק, או לפקפק. המחיר? טעויות קטנות הופכות לאמיתות גדולות. ויחד איתן – נשחקת היכולת לשאול שאלות, לבדוק מקורות, לסמוך על שיקול הדעת שלנו
(Ji et al., ACM Computing Surveys, 2023)
קל להיבהל.
אבל המטרה היא לא לפחד – אלא להבין.
ה-AI לא הולכת להיעלם. היא יכולה גם לעזור מאוד.
האתגר הוא ללמוד להשתמש בה – בלי לוותר על עצמנו.
כשהילדים שלנו גדלים עם בינה מלאכותית, אנחנו צריכים לעזור להם לשמור גם על הבינה האנושית:
רגש, שיקול דעת, קשר, בחירה.
אז כן, הבינה המלאכותית כבר כאן – והיא לא הולכת לשום מקום.
היא יודעת לעזור, לדייק, להציע – לפעמים אפילו להרשים.
אבל יש משהו אחד שהיא לא יודעת לעשות:
להיות אנחנו.
היא לא יודעת לטעות מתוך רגש.
לא יודעת לבחור גם כשאין ודאות.
לא יודעת לאהוב, להרגיש, או לדעת מתי עדיף לשתוק.
וזו המשימה שלנו עכשיו – לא להילחם בטכנולוגיה, אלא ללמוד איך להישאר אנושיים בתוכה.
לשאול, להתבלבל, לשוחח, לכתוב, לבחור.
וביחד – לגדל דור שלא רק משתמש בכלים חכמים,
אלא יודע להשתמש בהם בלי לאבד את הלב.
באצטרובל הכחול יש לנו הרצאה מיוחדת לחטיבות ותיכונים:
“בינה מלאכותית VS בינה אנושית”
שעוסקת בדיוק בזה – איך לחיות טוב יותר בעידן של מכונות חושבות,ולשמור על היתרונות האנושיים שאין להם (עדיין) תחליף.
לפרטים על ההרצאה לחטיבות ותיכון – אפשר לפנות אלינו [כאן] או במייל.