Skip to main content
Automaziot AI logo
  • Home
  • Blog
  • About
  • Contact
(646) 760-4854Book a Free Consultation
Automaziot AI - AI Automation and Intelligent Agents for Business

AI Automation Experts. We help businesses streamline operations and scale faster with intelligent agents and workflow automation.

USA(646) 760-4854Israel HQ+972-3-7630715info@automaziot.ai
Israel HQ: Ahad Ha'Am 9, Tel Aviv

Quick Links

  • Home
  • About
  • Contact
  • Case Studies
  • Glossary

Our Solutions

  • Lead Management
  • WhatsApp AI Agent
  • Business Automation
  • Smart CRM
  • Automated Scheduling
  • Sales & Support
  • WhatsApp Commerce
  • AI Agents
  • Tech Consulting

Stay Updated

Get the latest insights on AI automation delivered to your inbox.

FacebookInstagramLinkedIn

This site uses Google Analytics and Vercel Analytics to improve your experience. For full details, see our Privacy Policy

© 2026 Automaziot AI. All rights reserved.

Privacy PolicyTerms of ServiceAccessibilityEditorial Policy
מעקב AI חוקי בארה"ב?: מה עסקים צריכים לדעת | Automaziot
האם הפנטגון יכול להשתמש ב-AI למעקב אחרי אזרחים אמריקאים?
ביתחדשותהאם הפנטגון יכול להשתמש ב-AI למעקב אחרי אזרחים אמריקאים?
ניתוח

האם הפנטגון יכול להשתמש ב-AI למעקב אחרי אזרחים אמריקאים?

העימות בין OpenAI, Anthropic והפנטגון חושף פרצה משפטית סביב דאטה מסחרי, AI ומעקב המוני

צוות אוטומציות AIצוות אוטומציות AI
8 במרץ 2026
6 דקות קריאה

תגיות

Department of DefensePentagonAnthropicClaudeOpenAIChatGPTNSAAlan RozenshteinUniversity of Minnesota Law SchoolSam AltmanDario AmodeiJessica TillipmanGeorge Washington University Law SchoolFBIIRSICEForeign Intelligence Surveillance ActElectronic Communications Privacy ActRon WydenFourth Amendment Is Not For Sale ActZoho CRMWhatsApp Business APIN8NGartnerMcKinsey

נושאים קשורים

#פרטיות בינה מלאכותית#WhatsApp Business API ישראל#Zoho CRM לעסקים#N8N אוטומציה#משילות AI בארגונים#חיבור מערכות CRM
מבוסס על כתבה שלMIT Technology Review ↗·תרגום, סיכום והקשר עסקי על-ידי המערכתאיך אנחנו עובדים

✨תקציר מנהלים

Key Takeaways

  • לפי הדיווח, הפנטגון רצה להשתמש ב-Claude של Anthropic לניתוח bulk commercial data על אמריקאים.

  • OpenAI עדכנה את ההסכם שלה עם הפנטגון כדי לאסור מעקב פנימי מכוון ושימוש בידי NSA.

  • החוקים המרכזיים שמסדירים מעקב בארה"ב נחקקו ב-1978 וב-1986, הרבה לפני עידן AI ודאטה מסחרי.

  • לעסקים בישראל זהו שיעור מעשי: כל פרויקט AI מעל Zoho CRM, WhatsApp API או N8N חייב לכלול לוגים, הרשאות ואישור אנושי.

  • פיילוט מבוקר של 14 יום ועלות הקמה של ₪3,500-₪8,000 עדיפים על חשיפה רגולטורית או נזק למוניטין.

האם הפנטגון יכול להשתמש ב-AI למעקב אחרי אזרחים אמריקאים?

  • לפי הדיווח, הפנטגון רצה להשתמש ב-Claude של Anthropic לניתוח bulk commercial data על אמריקאים.
  • OpenAI עדכנה את ההסכם שלה עם הפנטגון כדי לאסור מעקב פנימי מכוון ושימוש בידי NSA.
  • החוקים המרכזיים שמסדירים מעקב בארה"ב נחקקו ב-1978 וב-1986, הרבה לפני עידן AI ודאטה מסחרי.
  • לעסקים בישראל זהו שיעור מעשי: כל פרויקט AI מעל Zoho CRM, WhatsApp API או N8N...
  • פיילוט מבוקר של 14 יום ועלות הקמה של ₪3,500-₪8,000 עדיפים על חשיפה רגולטורית או נזק...

מעקב מבוסס AI על אזרחים: מה באמת מותר לפנטגון?

מעקב מבוסס AI על אזרחים אמריקאים הוא לא שאלה טכנולוגית אלא שאלה משפטית פתוחה. לפי הדיווח, הפער בין יכולות ניתוח הנתונים של מודלי AI לבין חוקי המעקב שנכתבו ב-1978 וב-1986 יוצר אזור אפור שבו הממשלה יכולה לרכוש דאטה מסחרי ולנתח אותו בקנה מידה רחב. מבחינת עסקים בישראל, זו לא רק דרמה אמריקאית. זו אינדיקציה ברורה לכך שחוזים, מגבלות שימוש ויכולת אכיפה טכנית הופכים לחלק קריטי בכל פרויקט AI ארגוני. לפי McKinsey, יותר מ-65% מהארגונים כבר משתמשים בבינה מלאכותית גנרטיבית לפחות בפעילות עסקית אחת, ולכן שאלת ה-governance כבר אינה תיאורטית.

מה זה מעקב מבוסס AI?

מעקב מבוסס AI הוא שימוש במודלי בינה מלאכותית כדי לאסוף, למזג, לנתח ולהסיק מסקנות על אנשים מתוך מקורות מידע רבים, גם אם כל מקור בנפרד אינו נחשב רגיש במיוחד. בהקשר עסקי, המשמעות היא שמערכת יכולה לקחת נתוני מיקום, היסטוריית גלישה, פוסטים ברשתות חברתיות, מצלמות, רישומי בוחרים או נתוני CRM, ולבנות פרופיל התנהגותי בקנה מידה גדול. לפי ההסבר של פרופ' Alan Rozenshtein, כאן בדיוק נוצרת הבעיה: החוק לעיתים לא מגדיר את פעולת הניתוח עצמה כ"מעקב" גם כאשר הציבור כן תופס אותה כך.

Anthropic, OpenAI והפנטגון: מה קרה בפועל

לפי הדיווח, נקודת הפיצוץ הייתה דרישת הפנטגון להשתמש ב-Claude של Anthropic כדי לנתח bulk commercial data שנאסף על אמריקאים. Anthropic התנגדה לשימוש כזה, ודרשה שהמודל שלה לא ישמש למעקב המוני בתוך ארה"ב ולא לנשק אוטונומי. שבוע לאחר שהמגעים קרסו, הפנטגון סימן את Anthropic כ-supply chain risk — צעד חריג שבדרך כלל שמור לחברות זרות הנתפסות כאיום ביטחוני.

במקביל, OpenAI חתמה עם הפנטגון על הסכם שאיפשר שימוש ב-AI שלה "לכל מטרה חוקית". מבקרים טענו שהניסוח הזה פותח דלת גם למעקב פנימי. לפי הדיווח, בתוך סוף שבוע אחד משתמשים רבים הסירו את ChatGPT, ומפגינים כתבו ליד מטה OpenAI בסן פרנסיסקו "What are your redlines?". ביום שני OpenAI הודיעה כי עדכנה את ההסכם כך שיאסור שימוש מכוון למעקב פנימי אחר אזרחים אמריקאים וימנע שימוש של סוכנויות מודיעין כמו NSA.

הוויכוח המשפטי: מה נחשב מעקב

כאן נכנס הוויכוח המהותי. Sam Altman טען שהחוק הקיים ממילא אוסר על מעקב פנימי כזה מצד Department of Defense, ולכן היה צורך רק לשקף זאת בחוזה. מנגד, Dario Amodei טען שלפחות בחלק מהמקרים, המעקב דווקא חוקי מפני שהחוק לא הדביק את קצב ההתקדמות של AI. לפי פרופ' Jessica Tillipman, גם אם חברה כותבת מגבלות בחוזה, בפועל הפנטגון ישתמש בטכנולוגיה לפי מה שהוא תופס כחוקי. כלומר, חוזה הוא שכבת בקרה אחת, אך לא בהכרח בלם אפקטיבי.

שוק הדאטה המסחרי הוא לב הסיפור

ליבת הוויכוח אינה רק Claude או ChatGPT אלא שוק המידע המסחרי. לפי הכתבה, רשויות כמו FBI, NSA, IRS ו-ICE כבר רוכשות מחברות פרטיות נתוני מיקום, היסטוריית גלישה ומידע מזהה אחר. זה חשוב מפני שמידע כזה עשוי לאפשר גישה לנתונים שבנסיבות אחרות היו דורשים צו שיפוטי או subpoena. החוק האמריקאי, במיוחד סביב התיקון הרביעי, נבנה בעידן שבו "איסוף מידע" פירושו כניסה פיזית לבית או האזנה לטלפון, לא הצלבה של מיליוני רשומות בזמן אמת.

ניתוח מקצועי: למה החוזה פחות חשוב מהארכיטקטורה

מניסיון בהטמעה אצל עסקים ישראלים, המשמעות האמיתית כאן היא שלא נכון להסתמך רק על סעיף משפטי שמגדיר "שימוש מותר" או "שימוש אסור". ברגע שארגון מזרים כמויות גדולות של דאטה למודל, השאלה הקריטית היא אילו הרשאות, לוגים, מסננים ומנגנוני human-in-the-loop הוגדרו מראש. אם מערכת AI מקבלת גישה לנתוני CRM, להודעות WhatsApp, למיקום או למסמכים, אפשר לייצר ממנה גם מנוע שירות לקוחות וגם מנוע פרופיילינג. ההבדל הוא לא רק במדיניות אלא בתכנון המערכת. לכן, בעבודה עם סוכני AI לעסקים ועם מערכת CRM חכמה, חייבים להגדיר מראש מה מותר לנתח, מי מאשר חריגות, כמה זמן נשמרים נתונים, ואילו פעולות נרשמות לביקורת. לפי Gartner, עד 2026 יותר מ-80% מהארגונים ישתמשו ביישומי AI גנרטיבי או ב-API של מודלים, ולכן סוגיית הבקרה תהפוך לדרישת בסיס ולא לשאלה למחלקה המשפטית בלבד.

ההשלכות לעסקים בישראל

הסיפור הזה רלוונטי במיוחד לעסקים ישראליים משום שרבים מהם בונים היום תהליכי AI מעל מאגרי לקוחות, שיחות מכירה, תכתובות WhatsApp, טפסי לידים ואתרי מסחר. במשרד עורכי דין, סוכנות ביטוח, קליניקה פרטית או חברת נדל"ן, אפשר לחבר טופס לידים ל-Zoho CRM, לעבד פניות דרך WhatsApp Business API, ולהפעיל שכבת N8N שמעבירה מידע בין המערכות בתוך דקות. אבל בדיוק באותו חיבור, אם אין אפיון הרשאות מסודר, אפשר לחשוף מידע רגיש או להסיק מסקנות שלא הייתם רוצים שמודל יסיק אוטומטית.

בישראל פועלים גם שיקולים מקומיים: חוק הגנת הפרטיות, חובת אבטחת מידע, רישום מאגרי מידע בחלק מהמקרים, רגישות לשפה עברית, ותרבות עסקית שבה לקוחות מצפים לתגובה תוך דקות ולא תוך יום עסקים. לכן, בעל עסק שבונה זרימת עבודה עם AI Agents + WhatsApp Business API + Zoho CRM + N8N חייב לתכנן גם governance. פרויקט פיילוט בסיסי לעסק קטן יכול לנוע סביב ₪3,500-₪8,000 להקמה, ועלויות חודשיות של ₪500-₪2,000 לכלים, ניטור והרשאות, תלוי במספר המשתמשים ובנפח ההודעות. מי שמחפש ייעוץ AI או פתרונות אוטומציה צריך לשאול לא רק "מה המערכת יודעת לעשות", אלא "איזה מידע היא רואה, מי שולט בו, ומה נרשם לביקורת".

מה לעשות עכשיו: צעדים מעשיים לעסקים שבונים AI על דאטה לקוחות

  1. בדקו אילו מקורות מידע מחוברים היום למודל: Zoho, HubSpot, Monday, Google Drive, WhatsApp Business API או בסיס נתונים פנימי.
  2. הגדירו פיילוט של 14 יום עם סוג דאטה אחד בלבד, למשל סיכום שיחות שירות, במקום פתיחת גישה מלאה לכל מאגר הלקוחות.
  3. בנו דרך N8N שכבת הרשאות ולוגים: מי שלח מידע, איזה שדה הועבר, ולאיזה מודל.
  4. הכניסו אישור אנושי לפני פעולות רגישות כמו דירוג לידים, שליחת הצעת מחיר או ניתוח מסמכים מזהים. עלות ביקורת ואפיון ראשוני נעה לרוב בין ₪2,000 ל-₪6,000, והיא זולה משמעותית מתקלה רגולטורית או פגיעה במוניטין.

מבט קדימה: החקיקה תגיע לאט, הארגונים צריכים לפעול מהר

ב-12 עד 18 החודשים הקרובים נראה יותר חוזים שינסו להגביל שימושי AI, אבל הוויכוח האמיתי יעבור למחוקקים ולשכבת היישום הטכנית. לפי הדיווח, הסנאטור Ron Wyden כבר מקדם תמיכה דו-מפלגתית בחקיקה בנושא רכישת דאטה מסחרי. עד שתהיה מסגרת ברורה, עסקים בישראל צריכים לבנות מערכות עם גבולות ברורים כבר היום: AI Agents, חיבורי WhatsApp, סביבת CRM ותזמור N8N — אבל עם בקרה, לוגים והרשאות מהיום הראשון.

שאלות ותשובות

FAQ

הכתבה הוכנה על-ידי המערכת בליווי בינה מלאכותית: תרגום, סיכום והוספת הקשר עסקי ישראלי מתוך פרסום מקורי של MIT Technology Review. קראו על תהליך העריכה שלנו. קישור למקור המקורי.

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

Your information will only be used to contact you and deliver our services. For details, see ourPrivacy Policy and Terms of Service

עוד מ־MIT Technology Review

כל הכתבות מ־MIT Technology Review
המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון
ניתוח
לפני 10 שעות
4 דקות
·מ־MIT Technology Review

המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון

המעבר של כלי בינה מלאכותית מחיפוש פסיבי לפעולה אקטיבית עתיד לשנות את דרכי ההתקשרות של הציבור מול מוסדות ועסקים. על פי ניתוח המבוסס על נתוני משרד אריק שמידט, השלב הבא במהפכת ה-AI הוא 'סוכנים אישיים' שיקבלו החלטות, ייצגו אינטרסים של אזרחים ולקוחות, ויבצעו פעולות עצמאיות כמו ניסוח מסמכים וביטול שירותים. עבור עסקים בישראל, מדובר באתגר טכנולוגי ומשפטי מורכב. כאשר רוב הפניות יגיעו מסוכנים אוטומטיים במקום מבני אדם, ארגונים יצטרכו להתאים את מערכות ה-CRM והאוטומציה שלהם (כדוגמת N8N ו-Zoho), ליישם מנגנוני אימות זהות קפדניים, ולעמוד בדרישות חוק הגנת הפרטיות, כדי לאפשר תקשורת אמינה ומאובטחת בין מערכות החברה לבוטים של הלקוחות.

Andrew SorotaJosh HendlerOffice of Eric Schmidt
קרא עוד
השלכות משפט מאסק אופן איי לעסקים: מאבק על עתיד המודלים
חדשות
לפני 3 ימים
6 דקות
·מ־MIT Technology Review

השלכות משפט מאסק אופן איי לעסקים: מאבק על עתיד המודלים

בשבוע הראשון למשפט ההיסטורי בין אילון מאסק לסם אלטמן ולחברת OpenAI, נחשף בבית המשפט כי גם חברת ה-AI הפרטית של מאסק, xAI, מבצעת תהליך של זיקוק נתונים (Distillation) ולומדת ממודלים מתחרים. הדיווח הדרמטי מעלה שאלות משפטיות קריטיות על זכויות קניין והגבלות שימוש בעולם פיתוח הבינה המלאכותית. עבור השוק הישראלי והמגזר העסקי, המשפט ממחיש את הסיכון העצום שבהישענות מלאה על ספק טכנולוגי יחיד, ומדגיש את הצורך בניהול סיכונים חכם ובפיזור תשתיות. חברות ישראליות נדרשות כעת יותר מתמיד לבסס ארכיטקטורה הכוללת מספר מודלים במקביל (Multi-LLM), תוך שמירה קפדנית על פרטיות המידע העסקי והקפדה על עמידה מלאה בדרישות של חוק הגנת הפרטיות, כדי למנוע חשיפה לתביעות מורכבות.

Elon MuskSam AltmanGreg Brockman
קרא עוד
משפט OpenAI לפני הנפקה: מה סכסוך מאסק-אלטמן משנה
ניתוח
28 באפריל 2026
6 דקות
·מ־MIT Technology Review

משפט OpenAI לפני הנפקה: מה סכסוך מאסק-אלטמן משנה

**משפט OpenAI לפני הנפקה הוא מבחן קריטי למבנה התאגידי של חברות בינה מלאכותית, ולא רק עימות אישי בין אילון מאסק לסם אלטמן.** לפי הדיווח, מאסק דורש עד 134 מיליארד דולר וטוען כי OpenAI סטתה מהייעוד המקורי של ארגון ללא כוונת רווח, בזמן שהחברה מתקרבת להנפקה אפשרית לפי שווי של יותר מ-850 מיליארד דולר. עבור עסקים בישראל, הסיפור המרכזי הוא סיכון תלות בספק AI אחד. מי שמפעיל תהליכי שירות, מכירות או ניהול לידים על מודלים כמו GPT צריך לוודא ארכיטקטורה גמישה, עם CRM מרכזי, חיבורי API ניתנים להחלפה ותזמור ב-N8N, כדי לצמצם סיכון תפעולי, מסחרי ורגולטורי.

Elon MuskOpenAISam Altman
קרא עוד
השלב החסר בין הייפ לרווח: איך מטמיעים AI בעסק
ניתוח
27 באפריל 2026
6 דקות
·מ־MIT Technology Review

השלב החסר בין הייפ לרווח: איך מטמיעים AI בעסק

**השלב החסר בין הייפ לרווח ב-AI הוא הטמעה עסקית מדידה.** זו המסקנה המרכזית שעולה מהדיון החדש סביב הפער בין יכולות מודלים כמו OpenAI ו-Anthropic לבין תוצאות אמיתיות בארגונים. לפי הדיווח, מחקר של Mercor בדק סוכני AI על 480 משימות משרדיות ומצא שכל הסוכנים נכשלו ברוב המשימות. עבור עסקים בישראל, המשמעות ברורה: לא מתחילים מ"מהפכה", אלא מתהליך מוגדר כמו קליטת לידים, שירות ב-WhatsApp או חיבור ל-Zoho CRM דרך N8N. מי שיריץ פיילוט של 14 יום עם מדד ברור, בקרה אנושית והרשאות מסודרות, יראה מהר יותר אם יש ערך עסקי אמיתי.

Pause AISouth ParkElon Musk
קרא עוד

עוד כתבות שיעניינו אותך

לכל הכתבות
סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות
ניתוח
לפני 10 שעות
5 דקות
·מ־Wired

סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות

האם אלגוריתם גיוס שלל מכם משרה ראויה? תחקיר חדש של מגזין WIRED חושף את סיפורו של סטודנט לרפואה, שגילה כי מערכות סינון קורות חיים אוטומטיות (ATS) פסלו את מועמדותו להתמחות בשל היעדרות רפואית שהוזנה במונח העמום "סיבות אישיות". על רקע ההצפה של מחלקות משאבי האנוש בפניות המיוצרות בעצמן על ידי מודלי שפה, חברות רבות ממהרות לאמץ פתרונות סינון מהירים ללא הבנה מלאה של מנגנון הפעולה שלהם. המקרה ממחיש את הסכנה בהסתמכות עיוורת על 'קופסאות שחורות' לקבלת החלטות גיוס מהותיות. עבור עסקים בישראל, בהם קורות חיים מכילים תכופות פערי זמן עקב שירות צבאי ושירות מילואים, המסקנה ברורה: מערכות אוטומציה מתקדמות הן אכן הכרח ניהולי, אך חובה לשלב בהן שקיפות מלאה ובקרה אנושית מדוקדקת כדי למנוע אפליה בלתי מכוונת ופספוס של מועמדים איכותיים.

Chad MarkeyThalamusCortex
קרא עוד
המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון
ניתוח
לפני 10 שעות
4 דקות
·מ־MIT Technology Review

המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון

המעבר של כלי בינה מלאכותית מחיפוש פסיבי לפעולה אקטיבית עתיד לשנות את דרכי ההתקשרות של הציבור מול מוסדות ועסקים. על פי ניתוח המבוסס על נתוני משרד אריק שמידט, השלב הבא במהפכת ה-AI הוא 'סוכנים אישיים' שיקבלו החלטות, ייצגו אינטרסים של אזרחים ולקוחות, ויבצעו פעולות עצמאיות כמו ניסוח מסמכים וביטול שירותים. עבור עסקים בישראל, מדובר באתגר טכנולוגי ומשפטי מורכב. כאשר רוב הפניות יגיעו מסוכנים אוטומטיים במקום מבני אדם, ארגונים יצטרכו להתאים את מערכות ה-CRM והאוטומציה שלהם (כדוגמת N8N ו-Zoho), ליישם מנגנוני אימות זהות קפדניים, ולעמוד בדרישות חוק הגנת הפרטיות, כדי לאפשר תקשורת אמינה ומאובטחת בין מערכות החברה לבוטים של הלקוחות.

Andrew SorotaJosh HendlerOffice of Eric Schmidt
קרא עוד
סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple
ניתוח
לפני 3 ימים
5 דקות
·מ־TechCrunch

סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple

פלטפורמת פיתוח הקוד מבוססת ה-AI עשתה זינוק חסר תקדים מהכנסות של 2.8 מיליון דולר ב-2024 למסלול הכנסות שנתי (ARR) של מיליארד דולר. הנתונים שנחשפו בכנס TechCrunch מצביעים על כך שארגוני ענק מאמצים סוכני AI כמחליפים למערכות נתונים מסורתיות, תוך הגעה לשימור לקוחות של עד 300%. בעוד מתחרות כדוגמת Cursor רושמות הפסדים גולמיים ומחפשות עסקאות רכישה מצד תאגידים כמו SpaceX, חברת Replit מציגה מודל רווחי המבוסס על סביבות ענן מבודדות. הנתונים מדגישים את החשיבות של אבטחת מידע בעבודה עם מחוללי קוד ואת המאבק המחריף בין ספקיות התשתית לחברות כמו Apple סביב השליטה בהפצת אפליקציות שנוצרו על ידי בינה מלאכותית.

ReplitAmjad MasadCursor
קרא עוד
המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב
ניתוח
לפני 4 ימים
5 דקות
·מ־Wired

המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב

תעשיית הבינה המלאכותית בארצות הברית לא מסתפקת רק בפיתוח מודלי שפה, אלא משקיעה מאות מיליוני דולרים כדי לעצב את דעת הקהל העולמית. דיווח של מגזין WIRED חושף כיצד ארגון המקושר לבכירי החברות OpenAI ו-Palantir, מממן משפיעני רשת בסכומים של כ-5,000 דולר לסרטון במטרה להציג את ההתפתחות הטכנולוגית של סין כאיום ביטחוני מוחשי על נתונים אישיים בארצות הברית ובעולם המערבי כולו. המטרה האסטרטגית מאחורי המהלך התקשורתי הזה היא לבלום הליכי חקיקה ורגולציה על חברות הטכנולוגיה האמריקאיות עצמן, באמתלה של פטריוטיות וביטחון לאומי מול האיום הסיני. חברות ישראליות, המסתמכות באופן הדוק על ממשקי ה-API של אותן חברות אמריקאיות לפיתוח תהליכי שירות ומכירה, חייבות להבין כיצד מאבקי השליטה הללו עלולים להשפיע על רמת אבטחת הנתונים של הלקוחות שלהן, וכיצד ניתן להיערך לכך תוך בניית ארכיטקטורת נתונים עצמאית המותאמת לחוק הגנת הפרטיות הישראלי.

Build American AILeading the FutureOpenAI
קרא עוד