כל השבוע שמענו על מודלי AI חדשים ומתקדמים שמבטיחים "חשיבה אמיתית". אך מחקר פורץ דרך של אפל, שפורסם ביוני 2025, מגלה משהו מדהים ומטריד: גם המודלים החכמים ביותר של OpenAI ו-Anthropic עדיין לא יודעים לחשוב באמת. הם פשוט מאוד, מאוד טובים בלהתאים דפוסים.
מה באמת בדקו החוקרים של אפל?
במקום לבדוק את המודלים על משימות מוכרות כמו פתרון בעיות מתמטיקה או כתיבת קוד (שבהן הם יכלו להתאמן), החוקרים יצרו סביבה מבוקרת עם חידות לוגיות פשוטות. דמיינו שאתם מלמדים ילד לשחק שח, אבל במקום להראות לו אלפי משחקים, אתם פשוט מסבירים את החוקים. ילד יבין את העקרונות ויוכל לשחק גם על לוח בגודל שונה או עם כלים בשמות שונה.
החוקרים בחנו מודלים מתקדמים כמו GPT-4, Claude ו-DeepSeek-R1 על חידות כמו "מגדל האנוי" - משחק שדורש תכנון לוגי צעד אחר צעד. התוצאה? ברגע שהחידות נעשו מעט יותר מורכבות או שונות מהדפוסים המוכרים, הביצועים קרסו לגמרי.
החידה שחשפה את האמת
אחד הניסויים המדהימים ביותר: החוקרים נתנו למודלים את האלגוריתם המדויק לפתרון מגדל האנוי - כמו להעניק לילד את הוראות ההפעלה של משחק. אדם שמבין את הכללים יוכל לבצע את השלבים, אבל המודלים נכשלו גם כשהיה להם "ספר הוראות" ברור.
זה כמו שאתם נותנים למישהו מתכון ברור לעוגה, והוא עדיין לא מצליח לאפות כי הוא לא מבין מה זה אומר "לערבב עד לקבלת מרקם אחיד". המודלים יודעים לזהות דפוסים מהאימון, אבל לא מבינים את הכללים הבסיסיים שמאחוריהם.
למה זה קורה? התשובה מפתיעה
המחקר מראה שיש הבדל מהותי בין שתי גישות ללמידה:
- גישה אנושית: אנחנו לומדים כללים ויכולים ליישם אותם במצבים חדשים
- גישת AI: הטכנולוגיה לומדת דפוסים מכמות עצומה של נתונים ומנסה להתאים אותם
מה זה אומר על המודלים ה"חושבים"?
החוקרים בחנו במיוחד את מה שמכונה "מודלי החשיבה" - כמו GPT-o1 של OpenAI שמפורסם בזה שהוא "חושב בקול רם" לפני שהוא עונה. התגלה משהו מדהים:
ברמת קושי נמוכה: המודלים הפשוטים דווקא עבדו טוב יותר - הם היו יעילים יותר ולא "חשבו יתר על המידה".
ברמת קושי בינונית: המודלים ה"חושבים" הראו יתרון בזכות התהליכים המפורטים שלהם.
ברמת קושי גבוהה: קריסה מוחלטת של כל המודלים, כולל אלה ש"חושבים". הם אפילו הפסיקו להשקיע מאמץ, כמו שהם "ויתרו".
המשמעות למשתמשים רגילים
איפה AI באמת מעולה:
- כתיבת תוכן רגיל ועריכה
- תרגום טקסטים
- ניתוח נתונים בדפוסים מוכרים
- מענה לשאלות על מידע קיים
- משימות שחוזרות על עצמן
איפה כדאי להיזהר:
- החלטות שדורשות חשיבה יצירתית אמיתית
- פתרון בעיות שלא נתקלת בהן בעבר
- מצבים שדורשים שיקול דעת מורכב
- כל דבר שדורש "לצאת מהקופסה"
מה זה אומר על העתיד של AI?
הממצאים לא אומרים שה-AI לא שימושי - להיפך. הם עוזרים לנו להבין טוב יותר מה לצפות ממנו. זה כמו לדעת שמכונית מעולה לנסיעה על כבישים, אבל לא תוכל לטוס או לשוט בים.
החוקרים של אפל מדגישים שההבנה הזו חשובה לפיתוח המודלים הבאים. במקום לנסות להעמיד פנים שהמודלים "חושבים", כדאי להתמקד בשיפור היכולות שלהם במה שהם באמת טובים בו.
האם זה אומר שלא נגיע ל-AGI (בינה מלאכותית כללית)? לאו דווקא. אבל זה כן אומר שהדרך שם תהיה שונה מכפי שחלקנו חשבו. ייתכן שנצטרך גישות חדשות שלא מבוססות רק על "יותר נתונים ויותר כוח חישוב".
למה אפל החליטה לחקור את זה?
מעניין לחשוב למה דווקא אפל הוציאה מחקר כה ביקורתי על מודלי ה-AI המתקדמים. ייתכן שזה קשור לגישה השמרנית יותר שלהם לטכנולוגיה - הם מעדיפים להבין לעומק את המגבלות לפני שהם מבטיחים דברים למשתמשים.
זה גם עולה בקנה אחד עם הפילוסופיה של אפל לפתח כלים שעובדים באמת טוב במצבים ספציפיים, במקום לטעון שהמוצר שלהם יכול לעשות הכל.
מסקנות: איך לחשוב על AI בצורה בריאה
המחקר הזה לא אומר לנו "לא להשתמש ב-AI" - הוא אומר לנו "איך להשתמש בו בחכמה". זה כמו לדעת שפטיש מעולה לתקוע מסמרים, אבל לא יעבוד טוב לגזירת עץ.
היום, ב-2025, אנחנו עדיין רחוקים מ-AI שבאמת "חושב" כמו בני אדם. אבל יש לנו כלים חזקים מאוד שיכולים לעזור לנו בהמון משימות - אם אנחנו מבינים את הגבולות שלהם.
הטייק-אווי הגדול: AI מעולה בזיהוי דפוסים ויכול לחסוך לנו המון זמן ועבודה, אבל עדיין צריך את השיפוט האנושי שלנו למשימות שדורשות חדשנות אמיתית. התכונות שחשבנו שמייחדות את האינטליגנציה האנושית - יצירתיות, חשיבה מחוץ לקופסה, ויכולת לפתור בעיות חדשות - עדיין שלנו.
תיאור המאמר:
מחקר פורץ דרך של אפל מגלה שמודלי AI מתקדמים מתבססים על התאמת דפוסים מתוחכמת במקום חשיבה אמיתית - מה זה אומר עליכם כמשתמשים.
מילים מרכזיות:
בינה מלאכותית, מחקר אפל AI, מודלי חשיבה, התאמת דפוסים, מגבלות AI, GPT-4, גבולות טכנולוגיה






