דלג לתוכן הראשי
אוטומציות AI - לוגו
  • דף הבית
  • בלוג
  • חדשות
  • אודות
  • צור קשר
03-7630715קבע יעוץ חינם
אוטומציות AI - פתרונות אוטומציה וסוכני AI לעסקים בישראל

מובילים בתחום האוטומציה וסוכני AI בישראל. אנו מספקים פתרונות מתקדמים ליעול תהליכי עסק ושיפור הפרודוקטיביות הארגונית.

IL03-7630715USA(646) 760-4854info@automaziot.ai
אחד העם 9, תל אביב. מגדל שלום

קישורים מהירים

  • דף הבית
  • בלוג
  • חדשות
  • אודות
  • צור קשר
  • סיפורי הצלחה
  • מילון מונחים

הפתרונות שלנו

  • ניהול לידים אוטומטי
  • סוכן חכם לוואטסאפ
  • אוטומציה עסקית מלאה
  • ניהול לקוחות חכם
  • קביעת תורים אוטומטית
  • מכירות ושירות לקוחות
  • חנות אוטומטית בוואטסאפ
  • סוכני AI
  • ייעוץ טכנולוגי

הישאר מעודכן

הירשם לניוזלטר שלנו וקבל עדכונים על חידושים בתחום האוטומציה וה-AI

FacebookInstagramLinkedIn

אתר זה משתמש ב-Google Analytics ו-Vercel Analytics לשיפור השירות. למידע מלא ראה מדיניות פרטיות

© 2026 אוטומציות AI. כל הזכויות שמורות.

מדיניות פרטיותתנאי שימושהצהרת נגישותמדיניות עריכה
דוומרי AI לא מוותרים על אזהרות AGI
דוומרי ה-AI לא מוותרים: סופיות עדיין מאיימת
ביתחדשותדוומרי ה-AI לא מוותרים: סופיות עדיין מאיימת
ניתוח

דוומרי ה-AI לא מוותרים: סופיות עדיין מאיימת

למרות אכזבת GPT-5 ומשבר ההייפ, מומחי בטיחות AI כמו הינטון ובנג'יו נשארים נחושים – AGI קרוב מספיק כדי להדאיג

אייל יעקבי מילראייל יעקבי מילר
15 בדצמבר 2025
4 דקות קריאה

תגיות

Geoffrey HintonYoshua BengioStuart RussellHelen TonerOpenAIGPT-5Jeffrey LadishDaniel Kokotajlo

נושאים קשורים

#בינה מלאכותית#בטיחות AI#סיכון קיומי#AGI#רגולציה טכנולוגית#הייפ AI

✨תקציר מנהלים

נקודות עיקריות

  • מומחי בטיחות AI נשארים מחויבים למרות כשלונות כמו GPT-5.

  • צירי זמן ל-AGI התארכו מעט, אך הסיכון נותר דחוף.

  • הם קוראים לרגולציה חזקה יותר, כמו חוקי EU וקליפורניה.

  • הדאגה אינה בדחיפות בלבד, אלא בפיתוח שליטה על סופר-אינטליגנציה.

דוומרי ה-AI לא מוותרים: סופיות עדיין מאיימת

  • מומחי בטיחות AI נשארים מחויבים למרות כשלונות כמו GPT-5.
  • צירי זמן ל-AGI התארכו מעט, אך הסיכון נותר דחוף.
  • הם קוראים לרגולציה חזקה יותר, כמו חוקי EU וקליפורניה.
  • הדאגה אינה בדחיפות בלבד, אלא בפיתוח שליטה על סופר-אינטליגנציה.

בעידן שבו הבינה המלאכותית כובשת כל תחום, קבוצה קטנה אך משפיעה של חוקרים ומדענים מזהירה מפני סופיות אנושית. 'דוומרי ה-AI', כפי שמכנים אותם, טוענים כי פיתוח AGI – בינה מלאכותית כללית שמתעלה על בני אדם – עלול להוביל לאובדן שליטה. למרות הצלחותיהם בעיצוב מדיניות בבית הלבן ובקריאות לקווים אדומים בינלאומיים, האחרונות חצי שנה הביאו נסיגה: דיבורים על בועת AI, והשקת GPT-5 של OpenAI שהתגלתה כאכזבה גדולה.

GPT-5, שהושק באוגוסט והוצג כ'מומחה ברמת דוקטורט בכל נושא' על ידי סם אלטמן, סבל מבעיות טכניות, החלטה מבולבלת לסגור גישה לדגמים ישנים, וביצועים יומיומיים שהורגישו כצעד אחורה. רבים ציפו לקפיצה לעבר AGI, אך המציאות ריסנה ציפיות. בכירים כמו דויד סאקס ושריראם קרישנן בוושינגטון הכריזו כי 'נרטיבי הדוומרים שגויים', והאשימו את תחזיות AGI הקרובות בהפרעה.

עם זאת, ראיונות עם 20 מובילי תחום בטיחות AI – כולל זוכי נובל ג'פרי הינטון ויושוא בנג'יו, סטיוארט ראסל והלן טונר לשעבר בדירקטוריון OpenAI – חושפים נחישות בלתי מעורערת. 'תודה לאל שיש לנו עוד זמן', אומר ג'פרי לדיש, אך הם כועסים על חוסר רצינות בקרב מקבלי החלטות. הם רואים בבועה וב-GPT-5 מכשול זמני, ומדגישים כי התקדמות מדינית כמו חוק ה-AI האירופי ו-SB 53 בקליפורניה עלולה להיפגע.

הדוומרים מתקנים טעויות נפוצות: הדאגה אינה בהכרח מצפה ל-AGI מחר, אלא בסיכון קיומי ללא פתרון לשליטה. סטיוארט ראסל משווה לאסטרואיד בקוטר ארבעה מייל שיפגע ב-2067: 'לא נחכה ל-2066'. רובם מאריכים מעט את ציר הזמן שלהם, אך מדגישים כי גם 20-30 שנה הן 'דיל ענק'. הינטון מציין כי רוב המומחים מאמינים בסופר-אינטליגנציה בתוך 20 שנה, ובסין ההנהגה מבינה את הסכנות טוב יותר.

בנג'יו, שייסד את LawZero, טוען כי GPT-5 עומד בציפיות המדעיות, ושיפורים נראים בבנצ'מרקים קשים כמו FrontierMath. הוא משווה להתכחשות לשינויי אקלים, ומזהיר כי גם סיכוי של 0.1% לאסון המוני אינו מקובל. ראסל חוזה סיכוי של 75% שהבועה תתפוצץ ללא פריצות דרך, אך הבטיחות אינה תלויה בדחיפות אלא בפתרון בעיית השליטה.

דוד קרוגר מדגיש כי נרטיבים של AGI ב-2027 תופסים תשומת לב ציבורית, אך הבעיה היא תיאום בינלאומי שדורש עשרות שנים – ולכן דחוף כעת. הלן טונר חוששת מפגיעה באמינות עקב תחזיות קיצוניות, אך רואה התקדמות בשדות משנה של בטיחות. לדיש שמח על הארכת ציר הזמן מ-3 ל-5-6 שנים, ומזהיר כי ההתקדמות הופכת פחות נראית לעין.

דניאל קוקוטאילו, מחבר 'AI 2027', צופה פיצוץ אינטליגנציה ב-5-10 שנים, ומבקר את הלובי הפרו-AI. בסופו של דבר, הדוומרים מדגישים כי העולם רחוק מהכנה, גם אם AGI רחוק יותר. מה תעשו אם הסיכון קיים? הזמן לפעול הוא עכשיו, לפני שההייפ יכסה על המציאות.

שאלות ותשובות

שאלות נפוצות

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

המידע שתמסור ישמש ליצירת קשר ומתן שירותים. למידע נוסף ראה מדיניות פרטיות ותנאי שימוש

עוד כתבות שיעניינו אותך

לכל הכתבות
סוכן AI ב-SMS: מהלך Poke משנה אוטומציות אישיות
ניתוח
8 באפר׳ 2026
6 דקות

סוכן AI ב-SMS: מהלך Poke משנה אוטומציות אישיות

**סוכן AI דרך הודעות הוא מערכת שמבצעת פעולות דרך SMS, iMessage או Telegram בלי להכריח את המשתמש להוריד אפליקציה.** זה בדיוק המהלך של Poke, שלפי TechCrunch גייסה עד היום 25 מיליון דולר ומוערכת ב-300 מיליון דולר. החשיבות לעסקים בישראל ברורה: אם לקוחות ועובדים מעדיפים לשלוח הודעה במקום לפתוח מערכת חדשה, גם אוטומציות עסקיות צריכות לעבור לערוצי מסרים מוכרים. עבור משרדי עורכי דין, מרפאות, סוכני ביטוח וחנויות אונליין, המשמעות היא חיבור בין WhatsApp או SMS לבין Zoho CRM, N8N ותהליכי שירות ומכירה. ההמלצה הפרקטית: להתחיל בפיילוט של 14 יום על תהליך אחד מדיד, ולא להסתמך על פלטפורמה יחידה כמו WhatsApp בלבד.

PokeTechCrunchThe Interaction Company of California
קרא עוד
Anthropic מול הפנטגון: מה סיכון שרשרת אספקה אומר לעסקי AI
ניתוח
8 באפר׳ 2026
5 דקות

Anthropic מול הפנטגון: מה סיכון שרשרת אספקה אומר לעסקי AI

**תווית סיכון שרשרת אספקה ב-AI היא לא רק בעיה ממשלתית אמריקאית, אלא אזהרה לכל עסק שבונה תהליך קריטי על ספק מודל יחיד.** לפי WIRED, בית משפט לערעורים בארה"ב קבע כי תווית הסיכון שהטיל הפנטגון על Anthropic תישאר בשלב זה, למרות החלטה סותרת של בית משפט אחר. המשמעות לעסקים בישראל ברורה: אם שירות לקוחות, ניהול לידים או עיבוד מסמכים תלויים רק ב-Claude, GPT או Gemini, כל שינוי רגולטורי או מסחרי עלול לפגוע ברציפות העבודה. הדרך הנכונה היא לבנות שכבת גיבוי עם N8N, לחבר ל-Zoho CRM או מערכת מקבילה, ולהפעיל את המודל כחלק ממערכת מבוקרת — לא כנקודת כשל יחידה.

AnthropicClaudePentagon
קרא עוד
סוכני AI למחקר אקדמי: מה Google חשפה ולמה זה מעניין עסקים
ניתוח
8 באפר׳ 2026
5 דקות

סוכני AI למחקר אקדמי: מה Google חשפה ולמה זה מעניין עסקים

**סוכני AI רב-סוכניים הם מערכות שמחלקות משימה בין כמה רכיבי בינה מלאכותית — איסוף מידע, תכנון, יצירה ובקרה — כדי לשפר דיוק ואמינות.** לפי Google Research, PaperVizAgent עבר ציון אנושי של 50.0 והשיג 60.2 במדד כולל, בעוד ScholarPeer גבר על מערכות ביקורת אוטומטיות אחרות בהשוואות צד-לצד. לישראלים זה חשוב לא בגלל האקדמיה עצמה, אלא בגלל המבנה: אותו עיקרון מתאים לבדיקת מסמכים, בקרה על לידים, יצירת סיכומים ועדכון Zoho CRM מתוך WhatsApp באמצעות N8N. המסקנה העסקית ברורה: העתיד אינו "בוט" יחיד, אלא תהליך עם כמה סוכנים, שכבת אימות ולוגים. עסקים שיבנו פיילוט כזה כבר עכשיו יקטינו שגיאות ויקבלו בסיס טוב יותר לאוטומציה עם בקרה.

Google ResearchGoogle CloudPaperVizAgent
קרא עוד
השקעות ענן כפולות ב-AI: למה AWS מהמרת גם על OpenAI
ניתוח
8 באפר׳ 2026
6 דקות

השקעות ענן כפולות ב-AI: למה AWS מהמרת גם על OpenAI

**השקעה כפולה של AWS ב-OpenAI וב-Anthropic מסמנת מעבר לניהול רב-מודלי בענן, לא נאמנות לספק AI יחיד.** לפי הדיווח, אמזון השקיעה 50 מיליארד דולר ב-OpenAI לצד 8 מיליארד דולר ב-Anthropic, כדי להבטיח שלקוחות AWS יקבלו גישה לכמה מודלים מתחרים דרך אותה פלטפורמה. עבור עסקים בישראל, המשמעות ברורה: בעתיד הקרוב הערך יעבור מבחירת מודל יחיד לבניית תהליך שמנתב כל משימה למודל המתאים לפי מחיר, מהירות ורגישות מידע. עסקים שמפעילים WhatsApp, CRM ואוטומציות ב-N8N צריכים להתחיל לחשוב כבר עכשיו על ארכיטקטורת AI רב-מודלית.

AmazonAWSOpenAI
קרא עוד