Skip to main content
Automaziot AI logo
  • Home
  • Blog
  • About
  • Contact
(646) 760-4854Book a Free Consultation
Automaziot AI - AI Automation and Intelligent Agents for Business

AI Automation Experts. We help businesses streamline operations and scale faster with intelligent agents and workflow automation.

USA(646) 760-4854Israel HQ+972-3-7630715info@automaziot.ai
Israel HQ: Ahad Ha'Am 9, Tel Aviv

Quick Links

  • Home
  • About
  • Contact
  • Case Studies
  • Glossary

Our Solutions

  • Lead Management
  • WhatsApp AI Agent
  • Business Automation
  • Smart CRM
  • Automated Scheduling
  • Sales & Support
  • WhatsApp Commerce
  • AI Agents
  • Tech Consulting

Stay Updated

Get the latest insights on AI automation delivered to your inbox.

FacebookInstagramLinkedIn

This site uses Google Analytics and Vercel Analytics to improve your experience. For full details, see our Privacy Policy

© 2026 Automaziot AI. All rights reserved.

Privacy PolicyTerms of ServiceAccessibilityEditorial Policy
כלי AI של HHS לפגיעות חיסונים
HHS מפתח כלי AI לזיהוי דפוסי פגיעות מחיסונים
ביתחדשותHHS מפתח כלי AI לזיהוי דפוסי פגיעות מחיסונים
חדשות

HHS מפתח כלי AI לזיהוי דפוסי פגיעות מחיסונים

מומחים חוששים שרוברט קנדי ג'וניור ישתמש בכלי כדי לקדם סדר יום אנטי-חיסונים

צוות אוטומציות AIצוות אוטומציות AI
4 בפברואר 2026
4 דקות קריאה

תגיות

HHSRobert F. Kennedy Jr.VAERSCDCFDAPaul Offit

נושאים קשורים

#בינה מלאכותית#חיסונים#בריאות ציבורית#VAERS#RFK Jr.#רגולציה רפואית
מבוסס על כתבה שלWired ↗·תרגום, סיכום והקשר עסקי על-ידי המערכתאיך אנחנו עובדים

✨תקציר מנהלים

Key Takeaways

  • HHS מפתח כלי AI גנרטיבי לניתוח VAERS מאז 2023.

  • קנדי ג'וניור שינה לוח חיסונים והציע שינויים במערכת.

  • VAERS מייצרת השערות בלבד, דורשת אימות נתונים נוספים.

  • LLMs עלולים לייצר הזיות; צורך בפיקוח אנושי.

  • בעבר VAERS זיהתה בעיות אמיתיות כמו קרישיות ומקרדיטיס.

HHS מפתח כלי AI לזיהוי דפוסי פגיעות מחיסונים

  • HHS מפתח כלי AI גנרטיבי לניתוח VAERS מאז 2023.
  • קנדי ג'וניור שינה לוח חיסונים והציע שינויים במערכת.
  • VAERS מייצרת השערות בלבד, דורשת אימות נתונים נוספים.
  • LLMs עלולים לייצר הזיות; צורך בפיקוח אנושי.
  • בעבר VAERS זיהתה בעיות אמיתיות כמו קרישיות ומקרדיטיס.

בעידן שבו בינה מלאכותית משנה את עולם הרפואה, משרד הבריאות והשירותים האנושיים האמריקאי (HHS) מפתח כלי AI גנרטיבי חדשני. הכלי ינתח נתונים ממאגר VAERS הלאומי, יזהה דפוסים בדיווחי תופעות לוואי מחיסונים וייצר השערות על השפעות שליליות. הדיווח מגיע מרשימת שימושי AI שפרסם HHS לשנת 2025, והכלי בפיתוח מאז סוף 2023 אך טרם הושק.

הכלי החדש מעורר דאגה בקרב מומחים, שחוששים כי שר ה-HHS, רוברט פ. קנדי ג'וניור, ינצל אותו לקידום סדר יום אנטי-חיסונים. קנדי, מבקר ותיק של חיסונים, שינה בשנה שלו בתפקיד את לוח הזמנים לחיסוני ילדים. הוא הסיר חיסונים נגד קורונה, שפעת, הפטיטיס A ו-B, מחלת מנינגוקוקלית, רוטה-וירוס ו-RSV מרשימת ההמלצות לכלל הילדים. בנוסף, הוא דורש שינויים במערכת VAERS ובתוכנית הפיצויים הפדרלית לפגיעות מחיסונים.

VAERS, מערכת משותפת ל-CDC ו-FDA שהוקמה ב-1990, מאפשרת לכל אחד – רופאים ואזרחים – לדווח על תופעות לוואי. הדיווחים אינם מאומתים, ולכן הנתונים משמשים רק לייצור השערות ראשוניות. פול אופיט, רופא ילדים ומנהל מרכז חינוך חיסונים בבית חולים לילדים פילדלפיה, מדגיש: "VAERS היא מערכת רועשת. כל אחד יכול לדווח, ללא קבוצת ביקורת". אתר ה-CDC מציין כי דיווח אינו מעיד על קשר סיבתי.

למרות זאת, פעילי אנטי-חיסונים משתמשים בנתוני VAERS כדי לטעון לחוסר בטיחות. לסלי לנרט, לשעבר מנהל מרכז ה-CDC למידע בריאות הציבור, מציין כי מדעני ממשלה משתמשים כבר שנים במודלי עיבוד שפה טבעית לזיהוי דפוסים ב-VAERS. שדרוג למודלי שפה גדולים (LLMs) צפוי, אך חסרון מרכזי הוא היעדר נתוני חיסונים מנוהלים, מה שמגזים בתדירות אירועים. לנרט ממליץ לשלב נתונים ממקורות נוספים.

מודלי LLM ידועים בהזיות משכנעות, ולכן דרוש פיקוח אנושי על ההשערות. לנרט, כיום מנהל מרכז AI ברפואה באוניברסיטת ראטגרס, מזהיר כי FDA מתייחסת ל-VAERS כמעבר מחקר ראשוני. ויניי פרסאד, מנהל מרכז FDA לביולוגיקה, הציע בהודעה פנימית הרחבת רגולציה על חיסונים, וטען למות ילדים מקורונה ללא ראיות – דיווחי VAERS ש-FDA בדקה.

יותר מעשרה יושבי ראש לשעבר ב-FDA פרסמו מכתב ב-New England Journal of Medicine נגד ההצעות, וטענו לשינוי רגולציה על סמך ראיות סלקטיביות. ג'סי גודמן, רופא מחלות זיהומיות בג'ורג'טאון, רואה פוטנציאל ב-LLMs לזיהוי בעיות בטיחות חדשות, אך מדגיש צורך בחקירה מעמיקה בשל נתונים לא מדויקים. בעבר, VAERS זיהתה קרישיות נדירה בחיסון J&J ומקרדיטיס ב-mRNA.

השימוש בכלי AI זה מעלה שאלות על השפעתו על מדיניות בריאות גלובלית, כולל בישראל שמשלבת AI במערכות בריאות. מנהלי עסקים בתחום מדיקל צריכים לשקול סיכונים פוליטיים בשילוב AI בנתוני בריאות ציבורית, ולוודא אימות נתונים. קיצוצי כוח אדם ב-CDC מחייבים תכנון לטיפול בהתראות שווא.

האם כלי AI כזה יחזק אמון ציבורי או יערער אותו? עתיד שימושי AI בבריאות תלוי בפיקוח אתי ומדעי קפדני.

שאלות ותשובות

FAQ

הכתבה הוכנה על-ידי המערכת בליווי בינה מלאכותית: תרגום, סיכום והוספת הקשר עסקי ישראלי מתוך פרסום מקורי של Wired. קראו על תהליך העריכה שלנו. קישור למקור המקורי.

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

Your information will only be used to contact you and deliver our services. For details, see ourPrivacy Policy and Terms of Service

עוד מ־Wired

כל הכתבות מ־Wired
משבר אתי: למה עובדי Google מתאגדים נגד פרויקטים ביטחוניים עם ישראל?
חדשות
לפני 5 שעות
5 דקות
·מ־Wired

משבר אתי: למה עובדי Google מתאגדים נגד פרויקטים ביטחוניים עם ישראל?

סערה ב-Google: עובדי מעבדת המחקר DeepMind שבלונדון מקדמים מהלך התאגדות היסטורי בשיתוף עם איגודי עובדים בריטיים, במטרה ברורה – לבלום את שיתופי הפעולה של ענקית הטכנולוגיה עם משרד ההגנה האמריקאי ועם כוחות הביטחון הישראליים. המהלך נוצר כתגובה ישירה לדיווחים כי חברת האם, Alphabet, אישרה לכאורה חוזים צבאיים חדשים המספקים שירותי ענן ללא הבטחת פיקוח אנושי הרמטי. המשבר הפנימי, המקבל רוח גבית מעובדים בחברות נוספות כגון Anthropic ו-Palantir, מציף מחדש את שאלת הסיכון בספקיות יחיד – עבור עסקים ישראליים המסתמכים על תשתיות Google לפעילות השוטפת שלהם, מדובר בנורת אזהרה המחייבת גיוון טכנולוגי בהקדם.

GoogleAlphabetUS Department of Defense
קרא עוד
סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות
ניתוח
לפני 6 שעות
5 דקות
·מ־Wired

סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות

האם אלגוריתם גיוס שלל מכם משרה ראויה? תחקיר חדש של מגזין WIRED חושף את סיפורו של סטודנט לרפואה, שגילה כי מערכות סינון קורות חיים אוטומטיות (ATS) פסלו את מועמדותו להתמחות בשל היעדרות רפואית שהוזנה במונח העמום "סיבות אישיות". על רקע ההצפה של מחלקות משאבי האנוש בפניות המיוצרות בעצמן על ידי מודלי שפה, חברות רבות ממהרות לאמץ פתרונות סינון מהירים ללא הבנה מלאה של מנגנון הפעולה שלהם. המקרה ממחיש את הסכנה בהסתמכות עיוורת על 'קופסאות שחורות' לקבלת החלטות גיוס מהותיות. עבור עסקים בישראל, בהם קורות חיים מכילים תכופות פערי זמן עקב שירות צבאי ושירות מילואים, המסקנה ברורה: מערכות אוטומציה מתקדמות הן אכן הכרח ניהולי, אך חובה לשלב בהן שקיפות מלאה ובקרה אנושית מדוקדקת כדי למנוע אפליה בלתי מכוונת ופספוס של מועמדים איכותיים.

Chad MarkeyThalamusCortex
קרא עוד
חשיפת נתונים פיננסיים: מניות של 30 מיליארד דולר נחשפות במשפט מאסק
חדשות
לפני 15 שעות
4 דקות
·מ־Wired

חשיפת נתונים פיננסיים: מניות של 30 מיליארד דולר נחשפות במשפט מאסק

גרג ברוקמן, נשיא אחת מחברות התוכנה המובילות בתחום הבינה המלאכותית, חשף בבית המשפט הפדרלי נתונים פיננסיים חסרי תקדים על עושרו האישי ועל המבנה הארגוני של החברה. במסגרת משפט מתוקשר מול אילון מאסק, ברוקמן גילה כי החזקותיו האישיות במניות החברה מוערכות בכ-30 מיליארד דולר. בעדותו ניסה ברוקמן להדוף את טענותיו של מאסק כי הנהלת החברה זנחה את ייעודה הציבורי המקורי לטובת התעשרות פרטית, והסביר כי ההצלחה הפיננסית היא תוצר של עבודה קשה מאז שמאסק עזב את הדירקטוריון. הנתונים חושפים מבט נדיר על ניגודי העניינים והקשרים המסחריים בצמרת תעשיית פיתוח מודלי השפה, עם השלכות גם על החברות הישראליות המסתמכות על תשתיות אלו כבסיס לפעילותן העסקית דרך קריאות API.

Greg BrockmanElon MuskSam Altman
קרא עוד
איתור חולשות אבטחה מבוסס AI: ה-NSA ומהפכת הסייבר בארגונים
חדשות
לפני 3 ימים
5 דקות
·מ־Wired

איתור חולשות אבטחה מבוסס AI: ה-NSA ומהפכת הסייבר בארגונים

הנוף של אבטחת המידע הארגוני עובר טלטלה חסרת תקדים. דיווחים חדשים חושפים כי הסוכנות לביטחון לאומי של ארצות הברית (NSA) בוחנת בימים אלו את מודל הבינה המלאכותית Mythos מבית Anthropic, במטרה לאתר חולשות קוד במערכות תוכנה מרכזיות. במקביל, ארגונים נאלצים להתמודד עם אתגרי פרטיות חדשים הנובעים משימוש הולך וגובר במערכות ביומטריות – כמו הכנסת טכנולוגיית זיהוי הפנים לפארקים של דיסנילנד. המגמות הללו, לצד תקריות מדאיגות של דליפות מידע ומעצר האקרים צעירים מקבוצות כופר מתוחכמות, מדגישות כי עסקים חייבים לנהל מדיניות נתונים נוקשה יותר. חברות ישראליות האוספות נתוני לקוחות נדרשות כעת לבחון מחדש את אסטרטגיית ההגנה שלהן ולשלב אוטומציות אבטחה כדי להימנע מקנסות רגולטוריים ופגיעה אנושה במוניטין.

AnthropicNSAMythos Preview
קרא עוד

עוד כתבות שיעניינו אותך

לכל הכתבות
הטמעת בינה מלאכותית בחברות פינטק: פייפאל חותכת 20% מעובדיה
חדשות
לפני שעה
4 דקות
·מ־TechCrunch

הטמעת בינה מלאכותית בחברות פינטק: פייפאל חותכת 20% מעובדיה

פייפאל יוצאת לדרך חדשה ומכריזה על מעבר למודל של חברת טכנולוגיה ממוקדת בינה מלאכותית. המנכ"ל, אנריקה לורס, חשף בשיחת המשקיעים האחרונה כי החברה משלבת כלי AI לאורך כל תהליכי הפיתוח, שירות הלקוחות וניהול הסיכונים שלה. עם זאת, לטרנספורמציה העמוקה יש מחיר משמעותי: פייפאל תפטר כ-20% מעובדיה, שהם למעלה מ-4,500 משרות, במטרה לחסוך כ-1.5 מיליארד דולר בשלוש השנים הקרובות. המהלך הדרמטי מעורר הדים בתעשיית הפינטק הגלובלית, וממחיש באופן ברור כיצד אימוץ אגרסיבי של מערכות בינה מלאכותית מהווה היום לא רק כלי עזר עבור ארגונים, אלא מנגנון הישרדות פיננסי חיוני עבור תאגידי ענק המבקשים לרצות את המשקיעים.

PayPalEnrique LoresSpotify
קרא עוד
משבר אתי: למה עובדי Google מתאגדים נגד פרויקטים ביטחוניים עם ישראל?
חדשות
לפני 5 שעות
5 דקות
·מ־Wired

משבר אתי: למה עובדי Google מתאגדים נגד פרויקטים ביטחוניים עם ישראל?

סערה ב-Google: עובדי מעבדת המחקר DeepMind שבלונדון מקדמים מהלך התאגדות היסטורי בשיתוף עם איגודי עובדים בריטיים, במטרה ברורה – לבלום את שיתופי הפעולה של ענקית הטכנולוגיה עם משרד ההגנה האמריקאי ועם כוחות הביטחון הישראליים. המהלך נוצר כתגובה ישירה לדיווחים כי חברת האם, Alphabet, אישרה לכאורה חוזים צבאיים חדשים המספקים שירותי ענן ללא הבטחת פיקוח אנושי הרמטי. המשבר הפנימי, המקבל רוח גבית מעובדים בחברות נוספות כגון Anthropic ו-Palantir, מציף מחדש את שאלת הסיכון בספקיות יחיד – עבור עסקים ישראליים המסתמכים על תשתיות Google לפעילות השוטפת שלהם, מדובר בנורת אזהרה המחייבת גיוון טכנולוגי בהקדם.

GoogleAlphabetUS Department of Defense
קרא עוד
חשיפת נתונים פיננסיים: מניות של 30 מיליארד דולר נחשפות במשפט מאסק
חדשות
לפני 15 שעות
4 דקות
·מ־Wired

חשיפת נתונים פיננסיים: מניות של 30 מיליארד דולר נחשפות במשפט מאסק

גרג ברוקמן, נשיא אחת מחברות התוכנה המובילות בתחום הבינה המלאכותית, חשף בבית המשפט הפדרלי נתונים פיננסיים חסרי תקדים על עושרו האישי ועל המבנה הארגוני של החברה. במסגרת משפט מתוקשר מול אילון מאסק, ברוקמן גילה כי החזקותיו האישיות במניות החברה מוערכות בכ-30 מיליארד דולר. בעדותו ניסה ברוקמן להדוף את טענותיו של מאסק כי הנהלת החברה זנחה את ייעודה הציבורי המקורי לטובת התעשרות פרטית, והסביר כי ההצלחה הפיננסית היא תוצר של עבודה קשה מאז שמאסק עזב את הדירקטוריון. הנתונים חושפים מבט נדיר על ניגודי העניינים והקשרים המסחריים בצמרת תעשיית פיתוח מודלי השפה, עם השלכות גם על החברות הישראליות המסתמכות על תשתיות אלו כבסיס לפעילותן העסקית דרך קריאות API.

Greg BrockmanElon MuskSam Altman
קרא עוד
הנפקת הענק של Cerebras: גיבוי מ-OpenAI ומאבק על עלויות ה-AI
חדשות
לפני 19 שעות
4 דקות
·מ־TechCrunch

הנפקת הענק של Cerebras: גיבוי מ-OpenAI ומאבק על עלויות ה-AI

חברת השבבים Cerebras, הנהנית מגיבוי מאסיבי ומחוזים בשווי למעלה מ-10 מיליארד דולר מול OpenAI, מתכוננת להנפקת הענק של 2026. לפי דיווחים, החברה צפויה לגייס 3.5 מיליארד דולר לפי שווי מקסימלי של 26.6 מיליארד דולר, במטרה לאתגר את הדומיננטיות של Nvidia בשוק החומרה. המהלך מסמן נקודת מפנה בתעשיית הבינה המלאכותית: השבב הייעודי Wafer-Scale Engine 3 מאפשר תהליכי עיבוד (Inference) מהירים וזולים משמעותית לעומת מעבדים גרפיים מסורתיים. המשמעות עבור השוק הישראלי היא דרמטית – ירידה צפויה בעלויות הפעלת מודלי שפה, שתוביל להוזלה ישירה בעלויות ה-API ותאפשר לעסקים להטמיע אוטומציות מורכבות וסוכני AI בתקציב נגיש מבעבר.

Cerebras SystemsOpenAINvidia
קרא עוד