Skip to main content
Automaziot AI logo
  • Home
  • Blog
  • About
  • Contact
(646) 760-4854Book a Free Consultation
Automaziot AI - AI Automation and Intelligent Agents for Business

AI Automation Experts. We help businesses streamline operations and scale faster with intelligent agents and workflow automation.

USA(646) 760-4854Israel HQ+972-3-7630715info@automaziot.ai
Israel HQ: Ahad Ha'Am 9, Tel Aviv

Quick Links

  • Home
  • About
  • Contact
  • Case Studies
  • Glossary

Our Solutions

  • Lead Management
  • WhatsApp AI Agent
  • Business Automation
  • Smart CRM
  • Automated Scheduling
  • Sales & Support
  • WhatsApp Commerce
  • AI Agents
  • Tech Consulting

Stay Updated

Get the latest insights on AI automation delivered to your inbox.

FacebookInstagramLinkedIn

This site uses Google Analytics and Vercel Analytics to improve your experience. For full details, see our Privacy Policy

© 2026 Automaziot AI. All rights reserved.

Privacy PolicyTerms of ServiceAccessibilityEditorial Policy
Mythos לסייבר ארגוני: מה זה אומר | Automaziot
Mythos של Anthropic למודיעין סייבר: מה זה אומר לעסקים
ביתחדשותMythos של Anthropic למודיעין סייבר: מה זה אומר לעסקים
ניתוח

Mythos של Anthropic למודיעין סייבר: מה זה אומר לעסקים

לפי Axios, ה-NSA משתמש ב-Mythos Preview לסריקת חולשות — סימן חשוב לכל ארגון שבונה הגנות AI

צוות אוטומציות AIצוות אוטומציות AI
20 באפריל 2026
6 דקות קריאה

תגיות

AnthropicMythosMythos PreviewNSADepartment of DefensePentagonClaudeAxiosTechCrunchUK AI Security InstituteDario AmodeiSusie WilesScott BessentWhite HouseIBMGartnerOpenAIGooglePalantirWhatsApp Business APIZoho CRMN8NMicrosoft 365Google WorkspaceAWSHubSpotMonday

נושאים קשורים

#אבטחת מידע לעסקים#AI לסייבר#WhatsApp Business API ישראל#חיבורי API לעסקים#Zoho CRM לעסקים#N8N אוטומציה
מבוסס על כתבה שלTechCrunch ↗·תרגום, סיכום והקשר עסקי על-ידי המערכתאיך אנחנו עובדים

✨תקציר מנהלים

Key Takeaways

  • לפי Axios, ה-NSA משתמש ב-Mythos Preview של Anthropic, מודל סייבר שהוגבל לכ-40 ארגונים בלבד.

  • Anthropic לא שחררה את Mythos לציבור משום שלדבריה המודל מסוגל גם למשימות התקפיות, לא רק הגנתיות.

  • המשמעות לעסקים: בתוך 12-18 חודשים כלי AI לסייבר יהפכו מחידוש לנוהל עבודה שוטף בארגונים.

  • בישראל, חיבור בין WhatsApp Business API, Zoho CRM ו-N8N יכול לקצר זמן תגובה לאירועי אבטחה מדקות ארוכות להתראה מיידית.

  • פיילוט בסיסי של ניטור ואוטומציה יכול להתחיל באלפי שקלים בחודש, נמוך משמעותית מעלות אירוע תפעולי או דליפת מידע.

Mythos של Anthropic למודיעין סייבר: מה זה אומר לעסקים

  • לפי Axios, ה-NSA משתמש ב-Mythos Preview של Anthropic, מודל סייבר שהוגבל לכ-40 ארגונים בלבד.
  • Anthropic לא שחררה את Mythos לציבור משום שלדבריה המודל מסוגל גם למשימות התקפיות, לא רק...
  • המשמעות לעסקים: בתוך 12-18 חודשים כלי AI לסייבר יהפכו מחידוש לנוהל עבודה שוטף בארגונים.
  • בישראל, חיבור בין WhatsApp Business API, Zoho CRM ו-N8N יכול לקצר זמן תגובה לאירועי אבטחה...
  • פיילוט בסיסי של ניטור ואוטומציה יכול להתחיל באלפי שקלים בחודש, נמוך משמעותית מעלות אירוע תפעולי...

Mythos למודיעין סייבר: למה הסיפור הזה חשוב עכשיו

Mythos הוא מודל בינה מלאכותית ייעודי למשימות סייבר, שלפי הדיווחים נגיש רק לכ-40 ארגונים ונמצא כבר בשימוש ה-NSA לסריקת חולשות ניתנות לניצול. עבור עסקים בישראל, זהו סימן ברור שהמרוץ הבא ב-AI אינו רק יצירת תוכן אלא זיהוי סיכונים, תגובה מהירה ואוטומציה של אבטחה.

הדיווח של TechCrunch, שמסתמך על Axios, נראה ממבט ראשון כמו עוד פרק במתח שבין וושינגטון לחברות AI. בפועל, מדובר באיתות שוק הרבה יותר רחב: אם סוכנות כמו ה-NSA מכניסה מודל ייעודי למשימות סייבר לתהליך עבודה, גם ארגונים מסחריים יצטרכו בקרוב להחליט איך הם משלבים AI בזיהוי חולשות, בתיעוד אירועים ובהפעלת צוותי IT. לפי IBM, העלות הממוצעת של פריצת מידע עולמית עמדה בשנים האחרונות על מיליוני דולרים לאירוע, ולכן גם עסקים בינוניים לא יכולים להתייחס לזה כאל דיון תיאורטי.

מה זה מודל AI ייעודי לסייבר?

מודל AI ייעודי לסייבר הוא מודל שפה או ניתוח שנבנה, אומן או הוגבל למשימות כמו סריקת תצורות, איתור פגיעויות, ניתוח קוד, זיהוי דפוסי תקיפה ותיעוד ממצאים. בהקשר עסקי, המשמעות היא מעבר מכלי כללי כמו צ'אטבוט למערכת שמחפשת בעיות קונקרטיות בסביבת הענן, ברשת או באפליקציה. לדוגמה, משרד עורכי דין ישראלי שמחזיק מסמכים רגישים ב-Microsoft 365 יכול להשתמש במנוע כזה כדי לאתר הרשאות שגויות או נקודות תורפה בתהליכי גישה. לפי הדיווח, Anthropic תכננה את Mythos במיוחד למשימות סייבר, ולא כמוצר מדף לשוק הרחב.

מה ידוע על השימוש של ה-NSA ב-Mythos Preview

לפי Axios, ה-NSA משתמש ב-Mythos Preview, גרסה ש-Anthropic הכריזה עליה מוקדם יותר החודש אך לא שחררה לציבור. החברה הסבירה כי מדובר במודל "מסוגל מדי" לביצוע מתקפות סייבר התקפיות, ולכן הגבילה את הגישה אליו. על פי הפרסום, רק כ-40 ארגונים קיבלו גישה, ומתוכם Anthropic ציינה בפומבי רק כתריסר. ה-NSA, כך נטען, נמנה עם קבוצת הנמענים הלא-מוצהרת ומשתמש במודל בעיקר לסריקת סביבות כדי לאתר חולשות ניתנות לניצול.

הפרט הזה חשוב משום שהוא חושף מודל הפצה חדש: לא השקה ציבורית רחבה, אלא גישה סלקטיבית לפי רמת אמון, ייעוד וסיכון. גם מכון אבטחת ה-AI של בריטניה אישר שקיבל גישה ל-Mythos, מה שמראה שהדיון כאן אינו רק אמריקאי. מנקודת מבט עסקית, זה מזכיר את הדרך שבה ספקיות ענן הוציאו בעבר יכולות מתקדמות תחילה ללקוחות אנטרפרייז או לגופי ממשל. עבור חברות ישראליות, המשמעות היא שלא כל יכולת AI חשובה תהיה זמינה מיד ב-API פתוח, ולכן צריך לבנות ארכיטקטורה גמישה, עם אוטומציה עסקית שיודעת להתחבר למספר ספקים ולא להישען על מודל אחד.

העימות עם הפנטגון לא נעלם

לפי הדיווח, המתח נובע מכך שמשרד ההגנה האמריקאי הגדיר את Anthropic "סיכון לשרשרת האספקה" אחרי שהחברה סירבה לאפשר גישה בלתי מוגבלת ליכולות המודל עבור שימושים כמו מעקב פנים-מדינתי נרחב ופיתוח נשק אוטונומי. במקביל, אותו ממסד ביטחוני ממשיך להשתמש בכלים של Anthropic במסגרות אחרות. זהו פער חשוב: ממשלות וחברות כבר לא בוחרות היום ספק AI רק לפי דיוק המודל, אלא גם לפי מגבלות שימוש, ממשל תאגידי, בקרות גישה ועמדות אתיות של הספק.

ההקשר הרחב: שוק ה-AI עובר מיצירת טקסט להפעלת מערכות קריטיות

הסיפור של Mythos משתלב במגמה רחבה יותר: מודלי AI מתקדמים נכנסים לתהליכים תפעוליים ולמערכות קריטיות, לא רק לשיווק או שירות. לפי Gartner, ארגונים מעלים בהדרגה את תקציבי ה-AI שלהם ממשימות ניסוי למשימות תשתית, ובסייבר המעבר הזה מהיר במיוחד כי זמן תגובה קובע נזק. אם בעבר מנהלים בדקו איך GPT מסכם מיילים, היום הם בודקים אם AI יכול לנתח לוגים, לזהות תצורה מסוכנת ב-AWS או לנסח טיקט מדויק ל-DevOps בתוך שניות. במקביל, שחקנים כמו OpenAI, Google ו-Palantir דוחפים יותר ויותר לכיוון שימושים ארגוניים רגישים, כך שהתחרות כבר אינה רק על "המודל הכי חכם" אלא על מודל שניתן לשלוט בו.

ניתוח מקצועי: למה מודל כמו Mythos משנה את כללי המשחק

מניסיון בהטמעה אצל עסקים ישראלים, המשמעות האמיתית כאן היא לא שלעסק קטן יהיה מחר כלי ברמת NSA, אלא שהציפייה ממערכות אבטחה תשתנה. אם עד היום מנהל IT הסתפק באנטי-וירוס, חומת אש ובדיקת חדירות תקופתית אחת לרבעון, בתוך 12 עד 18 חודשים השוק ינוע לעבר ניטור רציף בסיוע AI, ניתוח אוטומטי של אירועים ויצירת משימות המשך בתוך CRM או מערכת שירות. כאן נכנס היתרון של חיבור בין AI Agents, WhatsApp Business API, Zoho CRM ו-N8N: במקום שממצא אבטחה יישב בקובץ PDF, אפשר לבנות זרימה שבה אירוע קריטי נשלח ל-WhatsApp של מנהל התפעול, נפתח ככרטיס ב-Zoho CRM או ב-Desk, ומפעיל אוטומציה ב-N8N שמרכזת לוגים, מאשרת קבלת טיפול ומעדכנת סטטוס. זה לא חזון עתידי רחוק; זו ארכיטקטורה ישימה כבר היום. ההבדל הוא שבשנים הקרובות מנוע הזיהוי עצמו יהיה חכם יותר, מהיר יותר וסלקטיבי יותר. ההערכה שלי היא שחברות שלא יבנו שכבת בקרה, הרשאות ותיעוד סביב כלי AI כאלה יגלו שהבעיה אינה רק סיכון סייבר, אלא גם חוסר יכולת להסביר בדיעבד למה התקבלה החלטה מסוימת.

ההשלכות לעסקים בישראל

בישראל, ההשלכה המעשית הראשונה נוגעת לענפים שמנהלים מידע רגיש ומגיבים מהר ללקוחות: מרפאות פרטיות, משרדי עורכי דין, סוכני ביטוח, חברות נדל"ן וחנויות אונליין. בעסקים כאלה, בעיית האבטחה אינה נגמרת בשרת; היא מתחילה פעמים רבות דווקא ב-WhatsApp, בטופס לידים, בחשבון Google Workspace או בהרשאות לא מסודרות ב-CRM. אם מודלים כמו Mythos הופכים לסטנדרט בארגונים גדולים, עסקים מקומיים יצטרכו לשפר לפחות את היסודות: מיפוי גישה, רישום אירועים, בדיקת API פתוחים והפרדת הרשאות בין עובדים. לפי עלות שוק טיפוסית בישראל, פיילוט בסיסי של חיבור ניטור ואוטומציה יכול להתחיל באלפי שקלים בודדים לחודש, תלוי במספר המערכות, לעומת נזק תפעולי שיכול להגיע לעשרות אלפי שקלים גם באירוע קטן.

יש כאן גם רובד רגולטורי ותרבותי. עסקים ישראליים כפופים לחוק הגנת הפרטיות ולחובות ניהול מאגרי מידע, ובמקרים רבים נדרשים לשמור עקבות פעולה ברורות. לכן, אימוץ AI לסייבר לא יכול להישען רק על מודל חזק; הוא חייב לכלול תיעוד, הרשאות וזרימת עבודה אנושית. דוגמה פרקטית: סוכנות ביטוח יכולה לחבר טפסי אתר ל-Zoho CRM, לנהל התראות דרך סוכן וואטסאפ, ולהריץ ב-N8N בדיקות קבועות על שדות רגישים, קבצים מצורפים והרשאות משתמש. אם מזוהה חריגה, המערכת פותחת משימה, שולחת התראה בעברית ומחייבת אישור טיפול. זה הרבה יותר רלוונטי לעסק מקומי מאשר השאלה אם ל-NSA יש גישה ל-Mythos עצמו.

מה לעשות עכשיו: צעדים מעשיים לעסק ישראלי

  1. בדקו בתוך שבוע אילו מערכות קריטיות מחזיקות מידע רגיש: Zoho, Monday, HubSpot, Google Workspace, Microsoft 365 או שרתי ענן.
  2. הריצו פיילוט של 14 יום לזיהוי חולשות תהליך, לא רק חולשות קוד: הרשאות, API פתוחים, שדות CRM רגישים וקבצים משותפים.
  3. חברו התראות ל-WhatsApp Business API או למערכת טיקטים, כדי שממצא לא יישאר במייל שלא נקרא. עלות תוכנות וכלי אוטומציה בסיסיים יכולה להתחיל במאות עד אלפי שקלים בחודש.
  4. תכננו עם מומחה חיבור בין מודל AI, תהליכי אישור ו-N8N, כך שכל אירוע יירשם ויועבר לטיפול עם SLA ברור.

מבט קדימה על AI ייעודי לסייבר

בחודשים הקרובים נמשיך לראות יותר מודלים "מוגבלי גישה" שנשמרים ללקוחות ממשלה, מחקר ואנטרפרייז, במיוחד בתחומי סייבר ובקרה. עבור עסקים בישראל, הלקח אינו להמתין להזמנה מ-Anthropic אלא לבנות כבר עכשיו שכבת עבודה מסודרת סביב AI Agents, WhatsApp, Zoho CRM ו-N8N. מי שיתחיל עכשיו במיפוי מערכות, הרשאות וזרימות תגובה, ייכנס ל-2027 עם בסיס חזק יותר לניהול סיכונים ולשימוש אחראי ב-AI.

שאלות ותשובות

FAQ

הכתבה הוכנה על-ידי המערכת בליווי בינה מלאכותית: תרגום, סיכום והוספת הקשר עסקי ישראלי מתוך פרסום מקורי של TechCrunch. קראו על תהליך העריכה שלנו. קישור למקור המקורי.

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

Your information will only be used to contact you and deliver our services. For details, see ourPrivacy Policy and Terms of Service

עוד מ־TechCrunch

כל הכתבות מ־TechCrunch
סוכני AI לנתונים מובנים: הרכישה החדשה של SAP והחסימה של OpenClaw
חדשות
לפני שעה
5 דקות
·מ־TechCrunch

סוכני AI לנתונים מובנים: הרכישה החדשה של SAP והחסימה של OpenClaw

ענקית התוכנה SAP הודיעה על השקעה של 1.16 מיליארד דולר במעבדת ה-AI של הסטארטאפ הגרמני Prior Labs, המתמחה במודלי בינה מלאכותית לנתונים טבלאיים (TFM). במקביל, דיווחים חושפים כי החברה ביצעה שינוי דרמטי במדיניות ממשקי ה-API שלה, וכעת היא חוסמת באופן גורף גישה של סוכני AI חיצוניים שאינם מורשים – דוגמת OpenClaw. מנגד, סביבות שאושרו ספציפית כמו סוכני Joule של SAP ו-NemoClaw של Nvidia מורשות לפעול במערכת. המהלך מסמן מגמה גוברת של חברות תוכנה ארגוניות להדק את השליטה על הנתונים הרגישים שלהן, ומציב אתגר מורכב בפני חברות ישראליות המבקשות לשלב אוטומציות עצמאיות במערכות ה-ERP, הרכש והכספים שלהן.

SAPPrior LabsOpenClaw
קרא עוד
מנכ״ל ASML מגיב לאיומים: הדומיננטיות בתשתית שבבי הבינה המלאכותית מובטחת
חדשות
לפני 5 שעות
5 דקות
·מ־TechCrunch

מנכ״ל ASML מגיב לאיומים: הדומיננטיות בתשתית שבבי הבינה המלאכותית מובטחת

כריסטוף פוקה, מנכ״ל ענקית ייצור ציוד השבבים ההולנדית ASML, חושף בראיון ל-TechCrunch כי המונופול של החברה בייצור מכונות ליתוגרפיה מסוג EUV חסין מפני מתחרים חדשים ואפילו מול ניסיונות ריגול בסין. בזמן שענקיות הטכנולוגיה צפויות להשקיע השנה 600 מיליארד דולר בתשתיות AI, פוקה מזהיר ממחסור עולמי בשבבים שעלול להימשך עד חמש שנים. לדבריו, בניית תשתית מתחרה דורשת עשורים של ידע מצטבר שמקשה על כל חברה אחרת להיכנס לשוק. עבור עסקים בישראל שמסתמכים על כלי בינה מלאכותית, המסקנה ברורה: עלויות המחשוב צפויות להישאר משמעותיות בתקופה הקרובה, ועל ארגונים לאמץ אסטרטגיות חיסכון ואופטימיזציה בתהליכי האוטומציה שלהם.

ASMLChristophe FouquetMicrosoft
קרא עוד
הטמעת בינה מלאכותית בחברות פינטק: פייפאל חותכת 20% מעובדיה
חדשות
לפני 9 שעות
4 דקות
·מ־TechCrunch

הטמעת בינה מלאכותית בחברות פינטק: פייפאל חותכת 20% מעובדיה

פייפאל יוצאת לדרך חדשה ומכריזה על מעבר למודל של חברת טכנולוגיה ממוקדת בינה מלאכותית. המנכ"ל, אנריקה לורס, חשף בשיחת המשקיעים האחרונה כי החברה משלבת כלי AI לאורך כל תהליכי הפיתוח, שירות הלקוחות וניהול הסיכונים שלה. עם זאת, לטרנספורמציה העמוקה יש מחיר משמעותי: פייפאל תפטר כ-20% מעובדיה, שהם למעלה מ-4,500 משרות, במטרה לחסוך כ-1.5 מיליארד דולר בשלוש השנים הקרובות. המהלך הדרמטי מעורר הדים בתעשיית הפינטק הגלובלית, וממחיש באופן ברור כיצד אימוץ אגרסיבי של מערכות בינה מלאכותית מהווה היום לא רק כלי עזר עבור ארגונים, אלא מנגנון הישרדות פיננסי חיוני עבור תאגידי ענק המבקשים לרצות את המשקיעים.

PayPalEnrique LoresSpotify
קרא עוד
הנפקת הענק של Cerebras: גיבוי מ-OpenAI ומאבק על עלויות ה-AI
חדשות
אתמול
4 דקות
·מ־TechCrunch

הנפקת הענק של Cerebras: גיבוי מ-OpenAI ומאבק על עלויות ה-AI

חברת השבבים Cerebras, הנהנית מגיבוי מאסיבי ומחוזים בשווי למעלה מ-10 מיליארד דולר מול OpenAI, מתכוננת להנפקת הענק של 2026. לפי דיווחים, החברה צפויה לגייס 3.5 מיליארד דולר לפי שווי מקסימלי של 26.6 מיליארד דולר, במטרה לאתגר את הדומיננטיות של Nvidia בשוק החומרה. המהלך מסמן נקודת מפנה בתעשיית הבינה המלאכותית: השבב הייעודי Wafer-Scale Engine 3 מאפשר תהליכי עיבוד (Inference) מהירים וזולים משמעותית לעומת מעבדים גרפיים מסורתיים. המשמעות עבור השוק הישראלי היא דרמטית – ירידה צפויה בעלויות הפעלת מודלי שפה, שתוביל להוזלה ישירה בעלויות ה-API ותאפשר לעסקים להטמיע אוטומציות מורכבות וסוכני AI בתקציב נגיש מבעבר.

Cerebras SystemsOpenAINvidia
קרא עוד

עוד כתבות שיעניינו אותך

לכל הכתבות
סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות
ניתוח
לפני 15 שעות
5 דקות
·מ־Wired

סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות

האם אלגוריתם גיוס שלל מכם משרה ראויה? תחקיר חדש של מגזין WIRED חושף את סיפורו של סטודנט לרפואה, שגילה כי מערכות סינון קורות חיים אוטומטיות (ATS) פסלו את מועמדותו להתמחות בשל היעדרות רפואית שהוזנה במונח העמום "סיבות אישיות". על רקע ההצפה של מחלקות משאבי האנוש בפניות המיוצרות בעצמן על ידי מודלי שפה, חברות רבות ממהרות לאמץ פתרונות סינון מהירים ללא הבנה מלאה של מנגנון הפעולה שלהם. המקרה ממחיש את הסכנה בהסתמכות עיוורת על 'קופסאות שחורות' לקבלת החלטות גיוס מהותיות. עבור עסקים בישראל, בהם קורות חיים מכילים תכופות פערי זמן עקב שירות צבאי ושירות מילואים, המסקנה ברורה: מערכות אוטומציה מתקדמות הן אכן הכרח ניהולי, אך חובה לשלב בהן שקיפות מלאה ובקרה אנושית מדוקדקת כדי למנוע אפליה בלתי מכוונת ופספוס של מועמדים איכותיים.

Chad MarkeyThalamusCortex
קרא עוד
המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון
ניתוח
לפני 15 שעות
4 דקות
·מ־MIT Technology Review

המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון

המעבר של כלי בינה מלאכותית מחיפוש פסיבי לפעולה אקטיבית עתיד לשנות את דרכי ההתקשרות של הציבור מול מוסדות ועסקים. על פי ניתוח המבוסס על נתוני משרד אריק שמידט, השלב הבא במהפכת ה-AI הוא 'סוכנים אישיים' שיקבלו החלטות, ייצגו אינטרסים של אזרחים ולקוחות, ויבצעו פעולות עצמאיות כמו ניסוח מסמכים וביטול שירותים. עבור עסקים בישראל, מדובר באתגר טכנולוגי ומשפטי מורכב. כאשר רוב הפניות יגיעו מסוכנים אוטומטיים במקום מבני אדם, ארגונים יצטרכו להתאים את מערכות ה-CRM והאוטומציה שלהם (כדוגמת N8N ו-Zoho), ליישם מנגנוני אימות זהות קפדניים, ולעמוד בדרישות חוק הגנת הפרטיות, כדי לאפשר תקשורת אמינה ומאובטחת בין מערכות החברה לבוטים של הלקוחות.

Andrew SorotaJosh HendlerOffice of Eric Schmidt
קרא עוד
סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple
ניתוח
לפני 4 ימים
5 דקות
·מ־TechCrunch

סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple

פלטפורמת פיתוח הקוד מבוססת ה-AI עשתה זינוק חסר תקדים מהכנסות של 2.8 מיליון דולר ב-2024 למסלול הכנסות שנתי (ARR) של מיליארד דולר. הנתונים שנחשפו בכנס TechCrunch מצביעים על כך שארגוני ענק מאמצים סוכני AI כמחליפים למערכות נתונים מסורתיות, תוך הגעה לשימור לקוחות של עד 300%. בעוד מתחרות כדוגמת Cursor רושמות הפסדים גולמיים ומחפשות עסקאות רכישה מצד תאגידים כמו SpaceX, חברת Replit מציגה מודל רווחי המבוסס על סביבות ענן מבודדות. הנתונים מדגישים את החשיבות של אבטחת מידע בעבודה עם מחוללי קוד ואת המאבק המחריף בין ספקיות התשתית לחברות כמו Apple סביב השליטה בהפצת אפליקציות שנוצרו על ידי בינה מלאכותית.

ReplitAmjad MasadCursor
קרא עוד
המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב
ניתוח
לפני 4 ימים
5 דקות
·מ־Wired

המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב

תעשיית הבינה המלאכותית בארצות הברית לא מסתפקת רק בפיתוח מודלי שפה, אלא משקיעה מאות מיליוני דולרים כדי לעצב את דעת הקהל העולמית. דיווח של מגזין WIRED חושף כיצד ארגון המקושר לבכירי החברות OpenAI ו-Palantir, מממן משפיעני רשת בסכומים של כ-5,000 דולר לסרטון במטרה להציג את ההתפתחות הטכנולוגית של סין כאיום ביטחוני מוחשי על נתונים אישיים בארצות הברית ובעולם המערבי כולו. המטרה האסטרטגית מאחורי המהלך התקשורתי הזה היא לבלום הליכי חקיקה ורגולציה על חברות הטכנולוגיה האמריקאיות עצמן, באמתלה של פטריוטיות וביטחון לאומי מול האיום הסיני. חברות ישראליות, המסתמכות באופן הדוק על ממשקי ה-API של אותן חברות אמריקאיות לפיתוח תהליכי שירות ומכירה, חייבות להבין כיצד מאבקי השליטה הללו עלולים להשפיע על רמת אבטחת הנתונים של הלקוחות שלהן, וכיצד ניתן להיערך לכך תוך בניית ארכיטקטורת נתונים עצמאית המותאמת לחוק הגנת הפרטיות הישראלי.

Build American AILeading the FutureOpenAI
קרא עוד