אורח מצב צפייה מבחן: סטטיסטיקה התפלגות ממוצע המדגם ומשפט הגבול המרכזי

סטטיסטיקה התפלגות ממוצע המדגם ומשפט הגבול המרכזי

מבחן התפלגות ממוצע המדגם ו-CLT - 50 שאלות: משפט הגבול המרכזי, שגיאת תקן, רווחי סמך, קירוב נורמלי, Bootstrap. סטטיסטיקה מתקדמת.

חלק א - תאוריה (1-10): ✅ ניסוח CLT ופרמטרים ✅ תנאים ל-CLT ✅ אוניברסליות - עובד לכל התפלגות ✅ גודל מדגם מינימלי (n≥30) ✅ תיקון רציפות חלק ב - חישובים (11-20): ✅ חישוב SE, Z-score ✅ הסתברויות עם x̄ ✅ רווחי סמך ✅ אוכלוסייה לא נורמלית ✅ n קטן מדי חלק ג - יישומים (21-30): ✅ קירוב בינומית בנורמלית ✅ שיעור במדגם p̂ ✅ רווח סמך לשיעור ✅ גודל מדגם לסקרים ✅ הפרש בין ממוצעים ✅ בדיקות השערות ✅ p-value ועוצמה חלק ד - מתקדם (31-40): ✅ תיקון אוכלוסייה סופית ✅ CLT למשתנים לא זהים ✅ קצב התכנסות ✅ תלות חלשה ✅ CLT רב-ממדי ✅ שיטת דלתא ✅ Bootstrap ✅ רגרסיה ✅ גודל אפקט ✅ החשיבות של CLT חלק ה - סיכום (41-50): ✅ תרגילים מקיפים ✅ בדיקות מעשיות ✅ סיכום מושגים ✅ הבדלים בין מושגים ✅ טעויות נפוצות
בדיקה מיידית הסברים מלאים חינם לחלוטין מותאם לנייד
מספר שאלות: 100
ניקוד כולל: 600 נק'
שאלה 1
2.00 נק'

🎯 המשפט החשוב ביותר בסטטיסטיקה:

מה אומר משפט הגבול המרכזי (Central Limit Theorem)?

הסבר:

💡 הסבר מפורט:

משפט הגבול המרכזי! 🎯

📚 ניסוח המשפט:

משפט הגבול המרכזי (CLT):

אם X₁, X₂, ..., Xₙ מדגם אקראי מאוכלוסייה עם ממוצע μ ושונות σ²,

אזי כאשר n → ∞:

x̄ ~ N(μ, σ²/n)

או בצורה מתוקננת:

Z = (x̄ - μ)/(σ/√n) ~ N(0, 1)

⭐ הקסם:

זה עובד ללא קשר להתפלגות המקורית!

• האוכלוסייה יכולה להיות:
- אחידה
- מעריכית
- בינומית
- לא סימטרית
- עם חריגים
- כל התפלגות!

• אבל x̄ תמיד (כש-n גדול) יתפלג נורמלית!

💡 תנאים:

1️⃣ n מספיק גדול
• כלל אצבע: n ≥ 30
• אם האוכלוסייה סימטרית: n=15 מספיק
• אם האוכלוסייה נורמלית: כל n מספיק!

2️⃣ המדגם אקראי

3️⃣ קיימים μ ו-σ² סופיים

🎲 דוגמה אינטואיטיבית:

זורקים קובייה:
• התפלגות: אחידה (1,2,3,4,5,6)
• לא נורמלית כלל!

אבל:
• ממוצע של 30 זריקות
• ממוצע של עוד 30 זריקות
• וכו׳...

→ הממוצעים יתפלגו נורמלית!
שאלה 2
10.00 נק'

🎯 המשפט החשוב ביותר בסטטיסטיקה:

מה אומר משפט הגבול המרכזי (Central Limit Theorem)?

הסבר:

💡 הסבר מפורט:

משפט הגבול המרכזי! 🎯

📚 ניסוח המשפט:

משפט הגבול המרכזי (CLT):

אם X₁, X₂, ..., Xₙ מדגם אקראי מאוכלוסייה עם ממוצע μ ושונות σ²,

אזי כאשר n → ∞:

x̄ ~ N(μ, σ²/n)

או בצורה מתוקננת:

Z = (x̄ - μ)/(σ/√n) ~ N(0, 1)

⭐ הקסם:

זה עובד ללא קשר להתפלגות המקורית!

• האוכלוסייה יכולה להיות:
- אחידה
- מעריכית
- בינומית
- לא סימטרית
- עם חריגים
- כל התפלגות!

• אבל x̄ תמיד (כש-n גדול) יתפלג נורמלית!

💡 תנאים:

1️⃣ n מספיק גדול
• כלל אצבע: n ≥ 30
• אם האוכלוסייה סימטרית: n=15 מספיק
• אם האוכלוסייה נורמלית: כל n מספיק!

2️⃣ המדגם אקראי

3️⃣ קיימים μ ו-σ² סופיים

🎲 דוגמה אינטואיטיבית:

זורקים קובייה:
• התפלגות: אחידה (1,2,3,4,5,6)
• לא נורמלית כלל!

אבל:
• ממוצע של 30 זריקות
• ממוצע של עוד 30 זריקות
• וכו׳...

→ הממוצעים יתפלגו נורמלית!
שאלה 3
10.00 נק'

📊 פרמטרים:

אם X ~ כל התפלגות עם E(X)=μ, Var(X)=σ², מה פרמטרי ההתפלגות של x̄?

הסבר:

💡 הסבר מפורט:

פרמטרי x̄! 📊

📐 הנוסחאות המלאות:

פרמטרי התפלגות x̄:

1️⃣ תוחלת (ממוצע):
E(x̄) = μ

2️⃣ שונות:
Var(x̄) = σ²/n

3️⃣ סטיית תקן (שגיאת תקן):
SD(x̄) = SE = σ/√n

🔍 הוכחות:

הוכחה 1: E(x̄) = μ

x̄ = (X₁ + X₂ + ... + Xₙ) / n

E(x̄) = E[(X₁ + X₂ + ... + Xₙ) / n]

= [E(X₁) + E(X₂) + ... + E(Xₙ)] / n

= [μ + μ + ... + μ] / n

= nμ / n = μ

הוכחה 2: Var(x̄) = σ²/n

x̄ = (X₁ + X₂ + ... + Xₙ) / n

Var(x̄) = Var[(X₁ + ... + Xₙ) / n]

= (1/n²) × Var(X₁ + ... + Xₙ)

כיוון שהמשתנים בלתי תלויים:

= (1/n²) × [Var(X₁) + ... + Var(Xₙ)]

= (1/n²) × [σ² + σ² + ... + σ²]

= (1/n²) × nσ²

= σ²/n

⭐ תובנות:

1️⃣ x̄ אומד לא מוטה:
E(x̄) = μ → "בממוצע פוגעים במטרה"

2️⃣ הפיזור קטן עם n:
Var(x̄) = σ²/n → ככל ש-n גדל, השונות קטנה

3️⃣ קצב ההתכנסות:
SE = σ/√n → לחצי את SE צריך פי 4 מדגם!
שאלה 4
2.00 נק'

📊 פרמטרים:

אם X ~ כל התפלגות עם E(X)=μ, Var(X)=σ², מה פרמטרי ההתפלגות של x̄?

הסבר:

💡 הסבר מפורט:

פרמטרי x̄! 📊

📐 הנוסחאות המלאות:

פרמטרי התפלגות x̄:

1️⃣ תוחלת (ממוצע):
E(x̄) = μ

2️⃣ שונות:
Var(x̄) = σ²/n

3️⃣ סטיית תקן (שגיאת תקן):
SD(x̄) = SE = σ/√n

🔍 הוכחות:

הוכחה 1: E(x̄) = μ

x̄ = (X₁ + X₂ + ... + Xₙ) / n

E(x̄) = E[(X₁ + X₂ + ... + Xₙ) / n]

= [E(X₁) + E(X₂) + ... + E(Xₙ)] / n

= [μ + μ + ... + μ] / n

= nμ / n = μ

הוכחה 2: Var(x̄) = σ²/n

x̄ = (X₁ + X₂ + ... + Xₙ) / n

Var(x̄) = Var[(X₁ + ... + Xₙ) / n]

= (1/n²) × Var(X₁ + ... + Xₙ)

כיוון שהמשתנים בלתי תלויים:

= (1/n²) × [Var(X₁) + ... + Var(Xₙ)]

= (1/n²) × [σ² + σ² + ... + σ²]

= (1/n²) × nσ²

= σ²/n

⭐ תובנות:

1️⃣ x̄ אומד לא מוטה:
E(x̄) = μ → "בממוצע פוגעים במטרה"

2️⃣ הפיזור קטן עם n:
Var(x̄) = σ²/n → ככל ש-n גדל, השונות קטנה

3️⃣ קצב ההתכנסות:
SE = σ/√n → לחצי את SE צריך פי 4 מדגם!
שאלה 5
2.00 נק'

📏 כלל אצבע:

מהו גודל המדגם המינימלי הנפוץ כדי שמשפט הגבול המרכזי יחול?

הסבר:

💡 הסבר מפורט:

גודל מדגם ל-CLT! 📏

📊 כללי אצבע:

מצב האוכלוסייהn מינימליהסבר
נורמליתכל n!x̄ נורמלי תמיד
סימטרית
(לא חריגים)
n ≥ 15התכנסות מהירה
כללית
(כל התפלגות)
n ≥ 30הכלל הכללי!
אסימטרית מאוד
(חריגים)
n ≥ 50-100צריך יותר נתונים

⭐ הכלל הזהב:

n ≥ 30

זה הערך הבטוח ביותר
שעובד ברוב המקרים

💡 למה 30?

• זה לא חוק פיזיקלי, אלא כלל מעשי
• נמצא אמפירית שזה עובד טוב
• במחקרים מדעיים: n=30 נחשב "סף משמעותי"

🎯 דוגמאות:

📊 מקרה 1: התפלגות אחידה
• כבר ב-n=10 קירוב טוב
• ב-n=30 מצוין

📊 מקרה 2: התפלגות מעריכית
• צריך n≥40-50
• אסימטרית מאוד

📊 מקרה 3: נורמלית
• גם n=5 מספיק
• x̄ נורמלי תמיד!

⚠️ חשוב:

אם n < 30 ולא יודעים שהאוכלוסייה נורמלית
→ צריך להשתמש בהתפלגות t (לא Z)
שאלה 6
10.00 נק'

📏 כלל אצבע:

מהו גודל המדגם המינימלי הנפוץ כדי שמשפט הגבול המרכזי יחול?

הסבר:

💡 הסבר מפורט:

גודל מדגם ל-CLT! 📏

📊 כללי אצבע:

מצב האוכלוסייהn מינימליהסבר
נורמליתכל n!x̄ נורמלי תמיד
סימטרית
(לא חריגים)
n ≥ 15התכנסות מהירה
כללית
(כל התפלגות)
n ≥ 30הכלל הכללי!
אסימטרית מאוד
(חריגים)
n ≥ 50-100צריך יותר נתונים

⭐ הכלל הזהב:

n ≥ 30

זה הערך הבטוח ביותר
שעובד ברוב המקרים

💡 למה 30?

• זה לא חוק פיזיקלי, אלא כלל מעשי
• נמצא אמפירית שזה עובד טוב
• במחקרים מדעיים: n=30 נחשב "סף משמעותי"

🎯 דוגמאות:

📊 מקרה 1: התפלגות אחידה
• כבר ב-n=10 קירוב טוב
• ב-n=30 מצוין

📊 מקרה 2: התפלגות מעריכית
• צריך n≥40-50
• אסימטרית מאוד

📊 מקרה 3: נורמלית
• גם n=5 מספיק
• x̄ נורמלי תמיד!

⚠️ חשוב:

אם n < 30 ולא יודעים שהאוכלוסייה נורמלית
→ צריך להשתמש בהתפלגות t (לא Z)
שאלה 7
10.00 נק'

🎲 עצמאות:

האם משפט הגבול המרכזי תלוי בצורת ההתפלגות של האוכלוסייה?

הסבר:

💡 הסבר מפורט:

אוניברסליות ה-CLT! 🎲

🌟 הקסם של CLT:

העיקרון המדהים:

משפט הגבול המרכזי עובד לכל התפלגות!

• אחידה ✓
• מעריכית ✓
• בינומית ✓
• פואסון ✓
• ביטא ✓
• גמא ✓
• לא סימטרית ✓
• עם חריגים ✓
• מעורבת ✓
כל התפלגות שיש לה μ ו-σ² סופיים!

📊 המחשה ויזואלית:

האוכלוסייה:
יכולה להיות כל צורה
⬜ ▅ ⬛ ▂ ▄ (לא סימטרית)
אחרי דגימה:
x̄ מתפלג נורמלית
🔔 (פעמון סימטרי!)

🎯 דוגמאות קונקרטיות:

דוגמה 1: התפלגות אחידה

🎲 זורקים קובייה (1-6):
• ההתפלגות: מלבן שטוח ▭
• לא נורמלית בכלל!

אבל ממוצע של 30 זריקות:
→ מתפלג נורמלית! 🔔

דוגמה 2: התפלגות מעריכית

⏱️ זמן המתנה (אסימטרי מאוד):
• רוב הזמנים קצרים /
• מעט זמנים ארוכים

אבל ממוצע זמנים של 50 לקוחות:
→ מתפלג נורמלית! 🔔

⭐ למה זה כל כך חשוב?

1️⃣ לא צריך לדעת את ההתפלגות המקורית!

2️⃣ יכולים להשתמש בטבלת Z תמיד

3️⃣ מאפשר הסקה סטטיסטית כמעט תמיד

זו הסיבה ש-CLT נקרא
"המשפט החשוב ביותר בסטטיסטיקה"
שאלה 8
2.00 נק'

🎲 עצמאות:

האם משפט הגבול המרכזי תלוי בצורת ההתפלגות של האוכלוסייה?

הסבר:

💡 הסבר מפורט:

אוניברסליות ה-CLT! 🎲

🌟 הקסם של CLT:

העיקרון המדהים:

משפט הגבול המרכזי עובד לכל התפלגות!

• אחידה ✓
• מעריכית ✓
• בינומית ✓
• פואסון ✓
• ביטא ✓
• גמא ✓
• לא סימטרית ✓
• עם חריגים ✓
• מעורבת ✓
כל התפלגות שיש לה μ ו-σ² סופיים!

📊 המחשה ויזואלית:

האוכלוסייה:
יכולה להיות כל צורה
⬜ ▅ ⬛ ▂ ▄ (לא סימטרית)
אחרי דגימה:
x̄ מתפלג נורמלית
🔔 (פעמון סימטרי!)

🎯 דוגמאות קונקרטיות:

דוגמה 1: התפלגות אחידה

🎲 זורקים קובייה (1-6):
• ההתפלגות: מלבן שטוח ▭
• לא נורמלית בכלל!

אבל ממוצע של 30 זריקות:
→ מתפלג נורמלית! 🔔

דוגמה 2: התפלגות מעריכית

⏱️ זמן המתנה (אסימטרי מאוד):
• רוב הזמנים קצרים /
• מעט זמנים ארוכים

אבל ממוצע זמנים של 50 לקוחות:
→ מתפלג נורמלית! 🔔

⭐ למה זה כל כך חשוב?

1️⃣ לא צריך לדעת את ההתפלגות המקורית!

2️⃣ יכולים להשתמש בטבלת Z תמיד

3️⃣ מאפשר הסקה סטטיסטית כמעט תמיד

זו הסיבה ש-CLT נקרא
"המשפט החשוב ביותר בסטטיסטיקה"
שאלה 9
2.00 נק'

תנאים:

מה התנאים הנדרשים למשפט הגבול המרכזי?

הסבר:

💡 הסבר מפורט:

תנאי CLT! ✅

📋 התנאים המלאים:

תנאי משפט הגבול המרכזי:

1️⃣ דגימה אקראית
X₁, X₂, ..., Xₙ מדגם אקראי
(בלתי תלויים ובעלי התפלגות זהה)

2️⃣ קיום ממוצע ושונות
E(X) = μ קיים וסופי
Var(X) = σ² קיימת וסופית

3️⃣ גודל מדגם מספק
n גדול מספיק
(בד״כ n ≥ 30)

🔍 הסבר מפורט לכל תנאי:

1️⃣ מדגם אקראי (i.i.d):

i.i.d = independent and identically distributed

בלתי תלויים (independent):
בחירת אחד לא משפיעה על האחר

התפלגות זהה (identically distributed):
כולם מאותה אוכלוסייה

דוגמה: דגימה עם החזרה ✓
נגד-דוגמה: דגימה תלויה ✗

2️⃣ μ ו-σ² סופיים:

למה צריך?
• אם μ = ∞ → אין ממוצע מוגדר
• אם σ² = ∞ → השונות אינסופית

מתי זה בעיה?
במקרים נדירים:
• התפלגות קושי (אין ממוצע!)
• התפלגויות עם "זנבות כבדים"

אבל ברוב ההתפלגויות המעשיות:
μ ו-σ² קיימים וסופיים ✓

3️⃣ n מספיק גדול:

ראינו בשאלה 3:
• בטוח: n ≥ 30
• אם סימטרית: n ≥ 15
• אם נורמלית: כל n

ככל שהאוכלוסייה יותר "משונה"
→ צריך n גדול יותר

⭐ סיכום:

התנאים די מתקיימים בקלות במקרים מעשיים!

המשפט מאוד רובסטי וחזק
שאלה 10
10.00 נק'

תנאים:

מה התנאים הנדרשים למשפט הגבול המרכזי?

הסבר:

💡 הסבר מפורט:

תנאי CLT! ✅

📋 התנאים המלאים:

תנאי משפט הגבול המרכזי:

1️⃣ דגימה אקראית
X₁, X₂, ..., Xₙ מדגם אקראי
(בלתי תלויים ובעלי התפלגות זהה)

2️⃣ קיום ממוצע ושונות
E(X) = μ קיים וסופי
Var(X) = σ² קיימת וסופית

3️⃣ גודל מדגם מספק
n גדול מספיק
(בד״כ n ≥ 30)

🔍 הסבר מפורט לכל תנאי:

1️⃣ מדגם אקראי (i.i.d):

i.i.d = independent and identically distributed

בלתי תלויים (independent):
בחירת אחד לא משפיעה על האחר

התפלגות זהה (identically distributed):
כולם מאותה אוכלוסייה

דוגמה: דגימה עם החזרה ✓
נגד-דוגמה: דגימה תלויה ✗

2️⃣ μ ו-σ² סופיים:

למה צריך?
• אם μ = ∞ → אין ממוצע מוגדר
• אם σ² = ∞ → השונות אינסופית

מתי זה בעיה?
במקרים נדירים:
• התפלגות קושי (אין ממוצע!)
• התפלגויות עם "זנבות כבדים"

אבל ברוב ההתפלגויות המעשיות:
μ ו-σ² קיימים וסופיים ✓

3️⃣ n מספיק גדול:

ראינו בשאלה 3:
• בטוח: n ≥ 30
• אם סימטרית: n ≥ 15
• אם נורמלית: כל n

ככל שהאוכלוסייה יותר "משונה"
→ צריך n גדול יותר

⭐ סיכום:

התנאים די מתקיימים בקלות במקרים מעשיים!

המשפט מאוד רובסטי וחזק
שאלה 11
10.00 נק'

תכונה חשובה:

אם X₁ ~ N(μ₁, σ₁²) ו-X₂ ~ N(μ₂, σ₂²) בלתי תלויים,

איך מתפלג X₁ + X₂?

הסבר:

💡 הסבר מפורט:

אדיטיביות נורמלית! ➕

📐 תכונת האדיטיביות:

משתנים נורמליים בלתי תלויים:

אם X₁ ~ N(μ₁, σ₁²) ו-X₂ ~ N(μ₂, σ₂²)

ו-X₁, X₂ בלתי תלויים

אזי:

X₁ + X₂ ~ N(μ₁+μ₂, σ₁²+σ₂²)

📊 הכללה:

אם X₁, X₂, ..., Xₙ בלתי תלויים

כאשר Xᵢ ~ N(μᵢ, σᵢ²)

אזי:

ΣXᵢ ~ N(Σμᵢ, Σσᵢ²)

🎯 מקרה מיוחד - סכום של n זהים:

אם X₁, ..., Xₙ ~ N(μ, σ²) זהים ובלתי תלויים

אזי:

S = X₁ + X₂ + ... + Xₙ

S ~ N(nμ, nσ²)

💡 קשר ל-CLT:

מהסכום לממוצע:

x̄ = S/n = (X₁ + ... + Xₙ)/n

אם S ~ N(nμ, nσ²)

אז x̄ ~ N(nμ/n, nσ²/n²)

= N(μ, σ²/n)

⭐ חשוב לזכור:

ממוצעים מתחברים: μ₁+μ₂

שונויות מתחברות: σ₁²+σ₂²

(לא סטיות תקן!)

⚠️ שגיאה נפוצה:

❌ σ₁+σ₂ (שגוי!)

✓ σ₁²+σ₂² (נכון!)
שאלה 12
2.00 נק'

תכונה חשובה:

אם X₁ ~ N(μ₁, σ₁²) ו-X₂ ~ N(μ₂, σ₂²) בלתי תלויים,

איך מתפלג X₁ + X₂?

הסבר:

💡 הסבר מפורט:

אדיטיביות נורמלית! ➕

📐 תכונת האדיטיביות:

משתנים נורמליים בלתי תלויים:

אם X₁ ~ N(μ₁, σ₁²) ו-X₂ ~ N(μ₂, σ₂²)

ו-X₁, X₂ בלתי תלויים

אזי:

X₁ + X₂ ~ N(μ₁+μ₂, σ₁²+σ₂²)

📊 הכללה:

אם X₁, X₂, ..., Xₙ בלתי תלויים

כאשר Xᵢ ~ N(μᵢ, σᵢ²)

אזי:

ΣXᵢ ~ N(Σμᵢ, Σσᵢ²)

🎯 מקרה מיוחד - סכום של n זהים:

אם X₁, ..., Xₙ ~ N(μ, σ²) זהים ובלתי תלויים

אזי:

S = X₁ + X₂ + ... + Xₙ

S ~ N(nμ, nσ²)

💡 קשר ל-CLT:

מהסכום לממוצע:

x̄ = S/n = (X₁ + ... + Xₙ)/n

אם S ~ N(nμ, nσ²)

אז x̄ ~ N(nμ/n, nσ²/n²)

= N(μ, σ²/n)

⭐ חשוב לזכור:

ממוצעים מתחברים: μ₁+μ₂

שונויות מתחברות: σ₁²+σ₂²

(לא סטיות תקן!)

⚠️ שגיאה נפוצה:

❌ σ₁+σ₂ (שגוי!)

✓ σ₁²+σ₂² (נכון!)
שאלה 13
2.00 נק'

🔢 קשר:

איך אפשר לכתוב את x̄ בעזרת סכום?

הסבר:

💡 הסבר מפורט:

x̄ כסכום! 🔢

📐 הקשר בין סכום לממוצע:

הממוצע = סכום חלקי n:

x̄ = (X₁+X₂+...+Xₙ)/n

או בסימון קצר:

x̄ = (1/n)ΣXᵢ

🔄 מסכום לממוצע:

נסמן: S = ΣXᵢ = X₁+X₂+...+Xₙ

אזי: x̄ = S/n

אם כל Xᵢ ~ N(μ, σ²):

1️⃣ הסכום:
S ~ N(nμ, nσ²)

2️⃣ הממוצע:
x̄ = S/n ~ N(μ, σ²/n)

📊 השפעת חלוקה על התפלגות:

אם Y ~ N(μ, σ²)

אזי Y/c ~ N(μ/c, σ²/c²)

לכן:

S ~ N(nμ, nσ²)

→ S/n ~ N(nμ/n, nσ²/n²)

→ x̄ ~ N(μ, σ²/n) ✓

⭐ למה זה שימושי?

1️⃣ הבנה קונספטואלית:
x̄ הוא טרנספורמציה לינארית של סכום

2️⃣ חישוב הסתברויות:
לפעמים קל יותר לעבוד עם סכום

3️⃣ הוכחות:
עוזר להוכיח תכונות של x̄

💡 דוגמה:

נתון: X ~ N(10, 4), n=9

סכום:
S = ΣXᵢ ~ N(9×10, 9×4)
= N(90, 36)
SD(S) = 6

ממוצע:
x̄ = S/9 ~ N(90/9, 36/81)
= N(10, 4/9)
SD(x̄) = 2/3
שאלה 14
10.00 נק'

🔢 קשר:

איך אפשר לכתוב את x̄ בעזרת סכום?

הסבר:

💡 הסבר מפורט:

x̄ כסכום! 🔢

📐 הקשר בין סכום לממוצע:

הממוצע = סכום חלקי n:

x̄ = (X₁+X₂+...+Xₙ)/n

או בסימון קצר:

x̄ = (1/n)ΣXᵢ

🔄 מסכום לממוצע:

נסמן: S = ΣXᵢ = X₁+X₂+...+Xₙ

אזי: x̄ = S/n

אם כל Xᵢ ~ N(μ, σ²):

1️⃣ הסכום:
S ~ N(nμ, nσ²)

2️⃣ הממוצע:
x̄ = S/n ~ N(μ, σ²/n)

📊 השפעת חלוקה על התפלגות:

אם Y ~ N(μ, σ²)

אזי Y/c ~ N(μ/c, σ²/c²)

לכן:

S ~ N(nμ, nσ²)

→ S/n ~ N(nμ/n, nσ²/n²)

→ x̄ ~ N(μ, σ²/n) ✓

⭐ למה זה שימושי?

1️⃣ הבנה קונספטואלית:
x̄ הוא טרנספורמציה לינארית של סכום

2️⃣ חישוב הסתברויות:
לפעמים קל יותר לעבוד עם סכום

3️⃣ הוכחות:
עוזר להוכיח תכונות של x̄

💡 דוגמה:

נתון: X ~ N(10, 4), n=9

סכום:
S = ΣXᵢ ~ N(9×10, 9×4)
= N(90, 36)
SD(S) = 6

ממוצע:
x̄ = S/9 ~ N(90/9, 36/81)
= N(10, 4/9)
SD(x̄) = 2/3
שאלה 15
10.00 נק'

📊 הרחבה:

האם משפט הגבול המרכזי חל רק על ממוצע המדגם?

הסבר:

💡 הסבר מפורט:

CLT כללי! 📊

🌟 יישומי CLT:

CLT חל על:

1️⃣ ממוצע המדגם:
x̄ ~ N(μ, σ²/n)

2️⃣ סכום:
ΣXᵢ ~ N(nμ, nσ²)

3️⃣ שיעור במדגם:
p̂ ~ N(p, p(1-p)/n)

📐 יישום 1: סכום

S = X₁ + X₂ + ... + Xₙ

אם Xᵢ בלתי תלויים עם E(Xᵢ)=μ, Var(Xᵢ)=σ²

וn גדול:

S מתפלג בקירוב N(nμ, nσ²)

דוגמה: סך הכנסות חודשיות

📐 יישום 2: שיעור

p̂ = מספר הצלחות / n

במדגם בינומי עם פרמטר p

וn גדול:

p̂ מתפלג בקירוב N(p, p(1-p)/n)

דוגמה: שיעור תומכים בסקר

📐 יישום 3: הפרש

x̄₁ - x̄₂

הפרש בין שני ממוצעי מדגמים

גם הוא מתפלג נורמלית!

דוגמה: הבדל בין שתי קבוצות

⭐ העיקרון הכללי:

CLT חל על כל פונקציה לינארית של המדגם

כלומר:
a₁X₁ + a₂X₂ + ... + aₙXₙ

גם מתפלג נורמלית כש-n גדול!

💡 חשוב:

CLT לא חל על:
• חציון (median)
• min/max
• טווח (range)

(אלה לא פונקציות לינאריות)
שאלה 16
2.00 נק'

📊 הרחבה:

האם משפט הגבול המרכזי חל רק על ממוצע המדגם?

הסבר:

💡 הסבר מפורט:

CLT כללי! 📊

🌟 יישומי CLT:

CLT חל על:

1️⃣ ממוצע המדגם:
x̄ ~ N(μ, σ²/n)

2️⃣ סכום:
ΣXᵢ ~ N(nμ, nσ²)

3️⃣ שיעור במדגם:
p̂ ~ N(p, p(1-p)/n)

📐 יישום 1: סכום

S = X₁ + X₂ + ... + Xₙ

אם Xᵢ בלתי תלויים עם E(Xᵢ)=μ, Var(Xᵢ)=σ²

וn גדול:

S מתפלג בקירוב N(nμ, nσ²)

דוגמה: סך הכנסות חודשיות

📐 יישום 2: שיעור

p̂ = מספר הצלחות / n

במדגם בינומי עם פרמטר p

וn גדול:

p̂ מתפלג בקירוב N(p, p(1-p)/n)

דוגמה: שיעור תומכים בסקר

📐 יישום 3: הפרש

x̄₁ - x̄₂

הפרש בין שני ממוצעי מדגמים

גם הוא מתפלג נורמלית!

דוגמה: הבדל בין שתי קבוצות

⭐ העיקרון הכללי:

CLT חל על כל פונקציה לינארית של המדגם

כלומר:
a₁X₁ + a₂X₂ + ... + aₙXₙ

גם מתפלג נורמלית כש-n גדול!

💡 חשוב:

CLT לא חל על:
• חציון (median)
• min/max
• טווח (range)

(אלה לא פונקציות לינאריות)
שאלה 17
2.00 נק'

🔧 תיקון:

מהו תיקון רציפות (Continuity Correction)?

הסבר:

💡 הסבר מפורט:

תיקון רציפות! 🔧

🎯 הבעיה:

התפלגות בדידה: ערכים נפרדים (0, 1, 2, 3, ...)
התפלגות רציפה: כל ערך אפשרי

כשמקרבים בדידה ברציפה → יש אי דיוק קטן

תיקון הרציפות:

כשמחשבים P(X = k) בבינומית
באמצעות נורמלית:

P(k-0.5 < Y < k+0.5)

כאשר Y ~ N(μ, σ²)

📊 כללי התיקון:

בדידה→ רציפה
P(X = k)P(k-0.5 < Y < k+0.5)
P(X ≤ k)P(Y < k+0.5)
P(X ≥ k)P(Y > k-0.5)
P(X < k)P(Y < k-0.5)
P(X > k)P(Y > k+0.5)

💡 דוגמה:

X ~ Binomial(100, 0.5)

רוצים: P(X = 55)

בלי תיקון:
μ = 50, σ = 5
Z = (55-50)/5 = 1
P(Z = 1) = 0 (נורמלית רציפה!)

עם תיקון:
P(54.5 < Y < 55.5)
= P((54.5-50)/5 < Z < (55.5-50)/5)
= P(0.9 < Z < 1.1)
≈ 0.027

⭐ מתי להשתמש?

✓ כשמקרבים בינומית בנורמלית
✓ כשמקרבים פואסון בנורמלית
✓ כל קירוב בדידה→רציפה

✗ כש-n גדול מאוד (>100) - ההשפעה זניחה

💡 זכור:

התיקון מוסיף/מחסיר ±0.5

כיוון: לפי הכלל בטבלה למעלה
שאלה 18
10.00 נק'

🔧 תיקון:

מהו תיקון רציפות (Continuity Correction)?

הסבר:

💡 הסבר מפורט:

תיקון רציפות! 🔧

🎯 הבעיה:

התפלגות בדידה: ערכים נפרדים (0, 1, 2, 3, ...)
התפלגות רציפה: כל ערך אפשרי

כשמקרבים בדידה ברציפה → יש אי דיוק קטן

תיקון הרציפות:

כשמחשבים P(X = k) בבינומית
באמצעות נורמלית:

P(k-0.5 < Y < k+0.5)

כאשר Y ~ N(μ, σ²)

📊 כללי התיקון:

בדידה→ רציפה
P(X = k)P(k-0.5 < Y < k+0.5)
P(X ≤ k)P(Y < k+0.5)
P(X ≥ k)P(Y > k-0.5)
P(X < k)P(Y < k-0.5)
P(X > k)P(Y > k+0.5)

💡 דוגמה:

X ~ Binomial(100, 0.5)

רוצים: P(X = 55)

בלי תיקון:
μ = 50, σ = 5
Z = (55-50)/5 = 1
P(Z = 1) = 0 (נורמלית רציפה!)

עם תיקון:
P(54.5 < Y < 55.5)
= P((54.5-50)/5 < Z < (55.5-50)/5)
= P(0.9 < Z < 1.1)
≈ 0.027

⭐ מתי להשתמש?

✓ כשמקרבים בינומית בנורמלית
✓ כשמקרבים פואסון בנורמלית
✓ כל קירוב בדידה→רציפה

✗ כש-n גדול מאוד (>100) - ההשפעה זניחה

💡 זכור:

התיקון מוסיף/מחסיר ±0.5

כיוון: לפי הכלל בטבלה למעלה
שאלה 19
10.00 נק'

📚 סיכום תאורטי:

מה התובנה המרכזית של משפט הגבול המרכזי?

הסבר:

💡 הסבר מפורט:

התובנה המרכזית! 📚

🌟 סיכום משפט הגבול המרכזי:

התובנה המדהימה:

סכומים וממוצעים של משתנים מקריים מתפלגים נורמלית

גם אם המשתנים עצמם לא נורמליים!

זו תופעת "הסדר מתוך כאוס"

🎯 המסר המרכזי:

הנתונים הבודדים:
יכולים להיות מבולגנים, לא סימטריים, משונים
🔀 📊 📈 ⚡
הממוצעים:
מסודרים, צפויים, נורמליים!
🔔 📊 🎯

💡 למה זה חשוב?

1️⃣ אוניברסליות:
אין צורך לדעת את ההתפלגות המקורית!

2️⃣ פשטות:
תמיד אפשר להשתמש בטבלת Z

3️⃣ הסקה:
מאפשר רווחי סמך ובדיקות השערות

4️⃣ חיזוי:
יודעים מה לצפות מממוצעים

⭐ הנוסחאות המרכזיות:

1. ממוצע המדגם:
x̄ ~ N(μ, σ²/n)

2. סכום:
ΣXᵢ ~ N(nμ, nσ²)

3. תקנון:
Z = (x̄-μ)/(σ/√n) ~ N(0,1)

🎓 המסר לקח הביתה:

ממוצעים הם יציבים ויותר צפויים מנתונים בודדים

זו הסיבה שאנחנו משתמשים בממוצעים בסטטיסטיקה!

וזו הסיבה ש-CLT נקרא:
"המשפט החשוב ביותר בסטטיסטיקה"
שאלה 20
2.00 נק'

📚 סיכום תאורטי:

מה התובנה המרכזית של משפט הגבול המרכזי?

הסבר:

💡 הסבר מפורט:

התובנה המרכזית! 📚

🌟 סיכום משפט הגבול המרכזי:

התובנה המדהימה:

סכומים וממוצעים של משתנים מקריים מתפלגים נורמלית

גם אם המשתנים עצמם לא נורמליים!

זו תופעת "הסדר מתוך כאוס"

🎯 המסר המרכזי:

הנתונים הבודדים:
יכולים להיות מבולגנים, לא סימטריים, משונים
🔀 📊 📈 ⚡
הממוצעים:
מסודרים, צפויים, נורמליים!
🔔 📊 🎯

💡 למה זה חשוב?

1️⃣ אוניברסליות:
אין צורך לדעת את ההתפלגות המקורית!

2️⃣ פשטות:
תמיד אפשר להשתמש בטבלת Z

3️⃣ הסקה:
מאפשר רווחי סמך ובדיקות השערות

4️⃣ חיזוי:
יודעים מה לצפות מממוצעים

⭐ הנוסחאות המרכזיות:

1. ממוצע המדגם:
x̄ ~ N(μ, σ²/n)

2. סכום:
ΣXᵢ ~ N(nμ, nσ²)

3. תקנון:
Z = (x̄-μ)/(σ/√n) ~ N(0,1)

🎓 המסר לקח הביתה:

ממוצעים הם יציבים ויותר צפויים מנתונים בודדים

זו הסיבה שאנחנו משתמשים בממוצעים בסטטיסטיקה!

וזו הסיבה ש-CLT נקרא:
"המשפט החשוב ביותר בסטטיסטיקה"
שאלה 21
2.00 נק'

🧮 תרגיל 1:

נתון: σ=20, n=64

חשב את SE (שגיאת התקן).

הסבר:

💡 הסבר מפורט:

חישוב SE! 🧮

📐 פתרון:

נוסחה:
SE = σ / √n

נתונים:
• σ = 20
• n = 64

שלב 1: √n
√64 = 8

שלב 2: חישוב SE
SE = 20 / 8 = 2.5

💡 פירוש:
ממוצעי מדגמים בגודל 64 יתפלגו עם סטיית תקן של 2.5 סביב μ
שאלה 22
10.00 נק'

🧮 תרגיל 1:

נתון: σ=20, n=64

חשב את SE (שגיאת התקן).

הסבר:

💡 הסבר מפורט:

חישוב SE! 🧮

📐 פתרון:

נוסחה:
SE = σ / √n

נתונים:
• σ = 20
• n = 64

שלב 1: √n
√64 = 8

שלב 2: חישוב SE
SE = 20 / 8 = 2.5

💡 פירוש:
ממוצעי מדגמים בגודל 64 יתפלגו עם סטיית תקן של 2.5 סביב μ
שאלה 23
10.00 נק'

🧮 תרגיל 2:

נתון: μ=100, σ=15, n=25, x̄=106

חשב Z.

הסבר:

💡 הסבר מפורט:

חישוב Z! 🧮

📐 פתרון:

נוסחה:
Z = (x̄ - μ) / (σ/√n)

נתונים:
• μ = 100
• σ = 15
• n = 25
• x̄ = 106

שלב 1: SE
SE = σ/√n = 15/√25 = 15/5 = 3

שלב 2: Z
Z = (106 - 100) / 3
Z = 6 / 3
Z = 2

💡 פירוש:
x̄=106 נמצא 2 סטיות תקן מעל μ
שאלה 24
2.00 נק'

🧮 תרגיל 2:

נתון: μ=100, σ=15, n=25, x̄=106

חשב Z.

הסבר:

💡 הסבר מפורט:

חישוב Z! 🧮

📐 פתרון:

נוסחה:
Z = (x̄ - μ) / (σ/√n)

נתונים:
• μ = 100
• σ = 15
• n = 25
• x̄ = 106

שלב 1: SE
SE = σ/√n = 15/√25 = 15/5 = 3

שלב 2: Z
Z = (106 - 100) / 3
Z = 6 / 3
Z = 2

💡 פירוש:
x̄=106 נמצא 2 סטיות תקן מעל μ
שאלה 25
10.00 נק'

🧮 תרגיל 3:

נתון: μ=50, σ=12, n=36

מה P(48 < x̄ < 52)?
(רמז: SE=2, זה ±1 סטייה)

הסבר:

💡 הסבר מפורט:

הסתברות בטווח! 🧮

📐 פתרון:

נתונים:
• μ = 50
• σ = 12
• n = 36
• רוצים: P(48 < x̄ < 52)

שלב 1: SE
SE = σ/√n = 12/√36 = 12/6 = 2

שלב 2: תקנון לZ

Z₁ = (48 - 50) / 2 = -2/2 = -1

Z₂ = (52 - 50) / 2 = 2/2 = +1

שלב 3: הסתברות

P(48 < x̄ < 52) = P(-1 < Z < 1)

כלל 68-95-99.7:

P(-1 < Z < 1) ≈ 0.68

(68% של הנורמלית בטווח ±1σ)

💡 פירוש:

יש 68% סיכוי שממוצע המדגם יהיה בין 48 ל-52

זכור:
• ±1σ → 68%
• ±2σ → 95%
• ±3σ → 99.7%
שאלה 26
2.00 נק'

🧮 תרגיל 3:

נתון: μ=50, σ=12, n=36

מה P(48 < x̄ < 52)?
(רמז: SE=2, זה ±1 סטייה)

הסבר:

💡 הסבר מפורט:

הסתברות בטווח! 🧮

📐 פתרון:

נתונים:
• μ = 50
• σ = 12
• n = 36
• רוצים: P(48 < x̄ < 52)

שלב 1: SE
SE = σ/√n = 12/√36 = 12/6 = 2

שלב 2: תקנון לZ

Z₁ = (48 - 50) / 2 = -2/2 = -1

Z₂ = (52 - 50) / 2 = 2/2 = +1

שלב 3: הסתברות

P(48 < x̄ < 52) = P(-1 < Z < 1)

כלל 68-95-99.7:

P(-1 < Z < 1) ≈ 0.68

(68% של הנורמלית בטווח ±1σ)

💡 פירוש:

יש 68% סיכוי שממוצע המדגם יהיה בין 48 ל-52

זכור:
• ±1σ → 68%
• ±2σ → 95%
• ±3σ → 99.7%
שאלה 27
2.00 נק'

🧮 תרגיל 4:

נתון: μ=200, σ=40, n=100

מה P(x̄ > 208)?
(רמז: SE=4, Z=2)

הסבר:

💡 הסבר מפורט:

הסתברות חד-צדדית! 🧮

📐 פתרון:

נתונים:
• μ = 200
• σ = 40
• n = 100
• רוצים: P(x̄ > 208)

שלב 1: SE
SE = σ/√n = 40/√100 = 40/10 = 4

שלב 2: Z
Z = (208 - 200) / 4 = 8/4 = 2

שלב 3: הסתברות

P(x̄ > 208) = P(Z > 2)

מטבלת Z:

P(Z > 2) ≈ 0.025

(2.5% בזנב הימני)

💡 הגיון:

Z=2 זה די רחוק מהממוצע

רק 2.5% מהממוצעים יהיו כל כך גבוהים

זכור:
• P(Z > 1) ≈ 0.16
• P(Z > 1.96) ≈ 0.025
• P(Z > 2) ≈ 0.025
• P(Z > 3) ≈ 0.0013
שאלה 28
10.00 נק'

🧮 תרגיל 4:

נתון: μ=200, σ=40, n=100

מה P(x̄ > 208)?
(רמז: SE=4, Z=2)

הסבר:

💡 הסבר מפורט:

הסתברות חד-צדדית! 🧮

📐 פתרון:

נתונים:
• μ = 200
• σ = 40
• n = 100
• רוצים: P(x̄ > 208)

שלב 1: SE
SE = σ/√n = 40/√100 = 40/10 = 4

שלב 2: Z
Z = (208 - 200) / 4 = 8/4 = 2

שלב 3: הסתברות

P(x̄ > 208) = P(Z > 2)

מטבלת Z:

P(Z > 2) ≈ 0.025

(2.5% בזנב הימני)

💡 הגיון:

Z=2 זה די רחוק מהממוצע

רק 2.5% מהממוצעים יהיו כל כך גבוהים

זכור:
• P(Z > 1) ≈ 0.16
• P(Z > 1.96) ≈ 0.025
• P(Z > 2) ≈ 0.025
• P(Z > 3) ≈ 0.0013
שאלה 29
10.00 נק'

🧮 תרגיל 5:

נתון: μ=100, SE=5

מצא c כך ש-P(x̄ < c) = 0.95
(רמז: Z₀.₉₅ = 1.645)

הסבר:

💡 הסבר מפורט:

מציאת ערך קריטי! 🧮

📐 פתרון:

נתונים:
• μ = 100
• SE = 5
• P(x̄ < c) = 0.95

שלב 1: מציאת Z

רוצים P(Z < z) = 0.95

מטבלת Z: z = 1.645

שלב 2: המרה חזרה ל-x̄

נוסחה:

Z = (x̄ - μ) / SE

→ x̄ = μ + Z × SE

c = 100 + 1.645 × 5

c = 100 + 8.225

c = 108.225

💡 פירוש:

95% מממוצעי המדגמים יהיו מתחת ל-108.225

רק 5% יהיו מעל לזה
שאלה 30
2.00 נק'

🧮 תרגיל 5:

נתון: μ=100, SE=5

מצא c כך ש-P(x̄ < c) = 0.95
(רמז: Z₀.₉₅ = 1.645)

הסבר:

💡 הסבר מפורט:

מציאת ערך קריטי! 🧮

📐 פתרון:

נתונים:
• μ = 100
• SE = 5
• P(x̄ < c) = 0.95

שלב 1: מציאת Z

רוצים P(Z < z) = 0.95

מטבלת Z: z = 1.645

שלב 2: המרה חזרה ל-x̄

נוסחה:

Z = (x̄ - μ) / SE

→ x̄ = μ + Z × SE

c = 100 + 1.645 × 5

c = 100 + 8.225

c = 108.225

💡 פירוש:

95% מממוצעי המדגמים יהיו מתחת ל-108.225

רק 5% יהיו מעל לזה
שאלה 31
2.00 נק'

🧮 תרגיל 6:

נתון: σ=20

אם n₁=25 אז SE₁=4
אם n₂=100 אז SE₂=?

הסבר:

💡 הסבר מפורט:

השוואת SE! 🧮

📐 פתרון:

נתונים:
• σ = 20
• n₁ = 25 → SE₁ = 4
• n₂ = 100 → SE₂ = ?

נוסחה:
SE = σ / √n

דרך 1: חישוב ישיר

SE₂ = 20 / √100
SE₂ = 20 / 10
SE₂ = 2

דרך 2: יחס

n₂/n₁ = 100/25 = 4

→ √(n₂/n₁) = √4 = 2

→ SE₂/SE₁ = 1/2

→ SE₂ = SE₁/2 = 4/2 = 2

💡 תובנה:

הגדלת n פי 4
→ SE קטן פי 2

הקשר: SE ∝ 1/√n
שאלה 32
10.00 נק'

🧮 תרגיל 6:

נתון: σ=20

אם n₁=25 אז SE₁=4
אם n₂=100 אז SE₂=?

הסבר:

💡 הסבר מפורט:

השוואת SE! 🧮

📐 פתרון:

נתונים:
• σ = 20
• n₁ = 25 → SE₁ = 4
• n₂ = 100 → SE₂ = ?

נוסחה:
SE = σ / √n

דרך 1: חישוב ישיר

SE₂ = 20 / √100
SE₂ = 20 / 10
SE₂ = 2

דרך 2: יחס

n₂/n₁ = 100/25 = 4

→ √(n₂/n₁) = √4 = 2

→ SE₂/SE₁ = 1/2

→ SE₂ = SE₁/2 = 4/2 = 2

💡 תובנה:

הגדלת n פי 4
→ SE קטן פי 2

הקשר: SE ∝ 1/√n
שאלה 33
10.00 נק'

🧮 תרגיל 7:

נתון: X ~ N(10, 4), n=9

מה E(ΣXᵢ) ו-Var(ΣXᵢ)?

הסבר:

💡 הסבר מפורט:

סכום משתנים! 🧮

📐 פתרון:

נתונים:
• X ~ N(10, 4)
• כלומר: μ = 10, σ² = 4
• n = 9
• S = ΣXᵢ = X₁+...+X₉

נוסחאות לסכום:

E(ΣXᵢ) = n × μ

Var(ΣXᵢ) = n × σ²

חישוב תוחלת:

E(S) = E(ΣXᵢ)
= n × μ
= 9 × 10
= 90

חישוב שונות:

Var(S) = Var(ΣXᵢ)
= n × σ²
= 9 × 4
= 36

💡 השוואה:

משתנה בודד:
E(X) = 10
Var(X) = 4
סכום:
E(S) = 90 = 9×10
Var(S) = 36 = 9×4
ממוצע:
E(x̄) = 10 = 90/9
Var(x̄) = 4/9 = 36/81
שאלה 34
2.00 נק'

🧮 תרגיל 7:

נתון: X ~ N(10, 4), n=9

מה E(ΣXᵢ) ו-Var(ΣXᵢ)?

הסבר:

💡 הסבר מפורט:

סכום משתנים! 🧮

📐 פתרון:

נתונים:
• X ~ N(10, 4)
• כלומר: μ = 10, σ² = 4
• n = 9
• S = ΣXᵢ = X₁+...+X₉

נוסחאות לסכום:

E(ΣXᵢ) = n × μ

Var(ΣXᵢ) = n × σ²

חישוב תוחלת:

E(S) = E(ΣXᵢ)
= n × μ
= 9 × 10
= 90

חישוב שונות:

Var(S) = Var(ΣXᵢ)
= n × σ²
= 9 × 4
= 36

💡 השוואה:

משתנה בודד:
E(X) = 10
Var(X) = 4
סכום:
E(S) = 90 = 9×10
Var(S) = 36 = 9×4
ממוצע:
E(x̄) = 10 = 90/9
Var(x̄) = 4/9 = 36/81
שאלה 35
2.00 נק'

🧮 תרגיל 8:

אוכלוסייה אחידה: E(X)=5, Var(X)=3
n=50

האם x̄ מתפלג נורמלית בקירוב?

הסבר:

💡 הסבר מפורט:

CLT לאוכלוסייה לא נורמלית! 🧮

📊 ניתוח:

נתונים:
• אוכלוסייה: אחידה (לא נורמלית!)
• E(X) = 5
• Var(X) = 3
• n = 50

משפט הגבול המרכזי:

אם n ≥ 30:

x̄ מתפלג נורמלית בקירוב

גם אם האוכלוסייה לא נורמלית!

בדיקת תנאים:

✓ n = 50 ≥ 30 ✓
✓ יש E(X) וVar(X) סופיים ✓
✓ דגימה אקראית ✓

כל התנאים מתקיימים!

ההתפלגות של x̄:

E(x̄) = 5
Var(x̄) = 3/50 = 0.06
SD(x̄) = √0.06 ≈ 0.245

x̄ ~ N(5, 0.06)

בקירוב טוב!

💡 הקסם:

האוכלוסייה אחידה (מלבן)

אבל x̄ מתפלג נורמלית (פעמון)!

זה הכוח של CLT
שאלה 36
10.00 נק'

🧮 תרגיל 8:

אוכלוסייה אחידה: E(X)=5, Var(X)=3
n=50

האם x̄ מתפלג נורמלית בקירוב?

הסבר:

💡 הסבר מפורט:

CLT לאוכלוסייה לא נורמלית! 🧮

📊 ניתוח:

נתונים:
• אוכלוסייה: אחידה (לא נורמלית!)
• E(X) = 5
• Var(X) = 3
• n = 50

משפט הגבול המרכזי:

אם n ≥ 30:

x̄ מתפלג נורמלית בקירוב

גם אם האוכלוסייה לא נורמלית!

בדיקת תנאים:

✓ n = 50 ≥ 30 ✓
✓ יש E(X) וVar(X) סופיים ✓
✓ דגימה אקראית ✓

כל התנאים מתקיימים!

ההתפלגות של x̄:

E(x̄) = 5
Var(x̄) = 3/50 = 0.06
SD(x̄) = √0.06 ≈ 0.245

x̄ ~ N(5, 0.06)

בקירוב טוב!

💡 הקסם:

האוכלוסייה אחידה (מלבן)

אבל x̄ מתפלג נורמלית (פעמון)!

זה הכוח של CLT
שאלה 37
10.00 נק'

🧮 תרגיל 9:

אוכלוסייה לא נורמלית, n=12

האם אפשר להשתמש ב-CLT?

הסבר:

💡 הסבר מפורט:

n קטן מדי! 🧮

⚠️ בעיה:

נתונים:
• אוכלוסייה: לא נורמלית
• n = 12

n=12 < 30

קטן מדי ל-CLT!

לא ניתן להניח ש-x̄ נורמלי

מה עושים?

אם יודעים שהאוכלוסייה נורמלית:
→ x̄ נורמלי לכל n!
→ אפשר להמשיך
אם האוכלוסייה לא נורמלית:
→ n=12 קטן מדי
→ צריך שיטות אחרות
→ או להגדיל את המדגם

אלטרנטיבות:

1️⃣ התפלגות t:
אם האוכלוסייה נורמלית אבל σ לא ידוע

2️⃣ שיטות לא פרמטריות:
לא מניחות התפלגות מסוימת

3️⃣ Bootstrap:
שיטה מודרנית מבוססת סימולציה

💡 הכלל:

אוכלוסייה לא נורמלית:

• n < 30 → לא CLT
• n ≥ 30 → כן CLT

אוכלוסייה נורמלית:

• כל n → כן
שאלה 38
2.00 נק'

🧮 תרגיל 9:

אוכלוסייה לא נורמלית, n=12

האם אפשר להשתמש ב-CLT?

הסבר:

💡 הסבר מפורט:

n קטן מדי! 🧮

⚠️ בעיה:

נתונים:
• אוכלוסייה: לא נורמלית
• n = 12

n=12 < 30

קטן מדי ל-CLT!

לא ניתן להניח ש-x̄ נורמלי

מה עושים?

אם יודעים שהאוכלוסייה נורמלית:
→ x̄ נורמלי לכל n!
→ אפשר להמשיך
אם האוכלוסייה לא נורמלית:
→ n=12 קטן מדי
→ צריך שיטות אחרות
→ או להגדיל את המדגם

אלטרנטיבות:

1️⃣ התפלגות t:
אם האוכלוסייה נורמלית אבל σ לא ידוע

2️⃣ שיטות לא פרמטריות:
לא מניחות התפלגות מסוימת

3️⃣ Bootstrap:
שיטה מודרנית מבוססת סימולציה

💡 הכלל:

אוכלוסייה לא נורמלית:

• n < 30 → לא CLT
• n ≥ 30 → כן CLT

אוכלוסייה נורמלית:

• כל n → כן
שאלה 39
2.00 נק'

🧮 תרגיל 10:

נתון: x̄=50, s=10, n=100

בנה רווח סמך 95% ל-μ.

הסבר:

💡 הסבר מפורט:

רווח סמך עם CLT! 🧮

📐 פתרון:

נוסחת רווח סמך 95%:

x̄ ± 1.96 × SE

נתונים:
• x̄ = 50
• s = 10 (מדגם)
• n = 100

שלב 1: SE
SE = s/√n = 10/√100 = 10/10 = 1

שלב 2: טווח שגיאה
ME = 1.96 × 1 = 1.96

שלב 3: בניית רווח

גבול תחתון: 50 - 1.96 = 48.04

גבול עליון: 50 + 1.96 = 51.96

רווח סמך 95%:

[48.04, 51.96]

💡 פירוש:

אנו 95% בטוחים ש-μ נמצא בין 48.04 ל-51.96

למה CLT רלוונטי?
• n=100 ≥ 30 ✓
• יכולים להניח x̄ ~ N(μ, σ²/n)
• לכן רווח הסמך תקף!
שאלה 40
10.00 נק'

🧮 תרגיל 10:

נתון: x̄=50, s=10, n=100

בנה רווח סמך 95% ל-μ.

הסבר:

💡 הסבר מפורט:

רווח סמך עם CLT! 🧮

📐 פתרון:

נוסחת רווח סמך 95%:

x̄ ± 1.96 × SE

נתונים:
• x̄ = 50
• s = 10 (מדגם)
• n = 100

שלב 1: SE
SE = s/√n = 10/√100 = 10/10 = 1

שלב 2: טווח שגיאה
ME = 1.96 × 1 = 1.96

שלב 3: בניית רווח

גבול תחתון: 50 - 1.96 = 48.04

גבול עליון: 50 + 1.96 = 51.96

רווח סמך 95%:

[48.04, 51.96]

💡 פירוש:

אנו 95% בטוחים ש-μ נמצא בין 48.04 ל-51.96

למה CLT רלוונטי?
• n=100 ≥ 30 ✓
• יכולים להניח x̄ ~ N(μ, σ²/n)
• לכן רווח הסמך תקף!
שאלה 41
10.00 נק'

📊 קירוב בינומי-נורמלי:

מתי ניתן לקרב בינומית בנורמלית?

הסבר:

💡 הסבר מפורט:

קירוב בינומית! 📊

📚 קירוב נורמלי להתפלגות בינומית:

אם X ~ Binomial(n, p)

ומתקיים:

np ≥ 5

וגם

n(1-p) ≥ 5

אזי:

X ~ N(np, np(1-p))

בקירוב

🔍 הסבר התנאים:

np ≥ 5:

מספר ההצלחות הצפוי ≥ 5

מבטיח מספיק הצלחות

n(1-p) ≥ 5:

מספר הכישלונות הצפוי ≥ 5

מבטיח מספיק כישלונות

💡 דוגמאות:

מותר: n=100, p=0.3
np = 30 ≥ 5 ✓
n(1-p) = 70 ≥ 5 ✓

אסור: n=20, p=0.1
np = 2 < 5 ✗

אסור: n=30, p=0.95
n(1-p) = 1.5 < 5 ✗

⭐ הקשר ל-CLT:

בינומית = סכום של n ניסויים ברנולי

→ CLT חל!

→ הסכום מתפלג נורמלית
שאלה 42
2.00 נק'

📊 קירוב בינומי-נורמלי:

מתי ניתן לקרב בינומית בנורמלית?

הסבר:

💡 הסבר מפורט:

קירוב בינומית! 📊

📚 קירוב נורמלי להתפלגות בינומית:

אם X ~ Binomial(n, p)

ומתקיים:

np ≥ 5

וגם

n(1-p) ≥ 5

אזי:

X ~ N(np, np(1-p))

בקירוב

🔍 הסבר התנאים:

np ≥ 5:

מספר ההצלחות הצפוי ≥ 5

מבטיח מספיק הצלחות

n(1-p) ≥ 5:

מספר הכישלונות הצפוי ≥ 5

מבטיח מספיק כישלונות

💡 דוגמאות:

מותר: n=100, p=0.3
np = 30 ≥ 5 ✓
n(1-p) = 70 ≥ 5 ✓

אסור: n=20, p=0.1
np = 2 < 5 ✗

אסור: n=30, p=0.95
n(1-p) = 1.5 < 5 ✗

⭐ הקשר ל-CLT:

בינומית = סכום של n ניסויים ברנולי

→ CLT חל!

→ הסכום מתפלג נורמלית
שאלה 43
2.00 נק'

🧮 תרגיל בינומי:

X ~ Binomial(100, 0.4)

מה פרמטרי הקירוב הנורמלי?

הסבר:

💡 הסבר מפורט:

פרמטרי קירוב! 🧮

📐 פתרון:

נתון:
X ~ Binomial(n=100, p=0.4)

נוסחאות בינומית:

E(X) = np

Var(X) = np(1-p)

SD(X) = √[np(1-p)]

שלב 1: בדיקת תנאים

np = 100 × 0.4 = 40 ≥ 5 ✓
n(1-p) = 100 × 0.6 = 60 ≥ 5 ✓

אפשר לקרב!

שלב 2: ממוצע

μ = np = 100 × 0.4 = 40

שלב 3: שונות

σ² = np(1-p)
= 100 × 0.4 × 0.6
= 40 × 0.6
= 24

שלב 4: סטיית תקן

σ = √24 ≈ 4.9

הקירוב הנורמלי:

X ~ N(40, 24)

או: X ~ N(40, 4.9²)
שאלה 44
10.00 נק'

🧮 תרגיל בינומי:

X ~ Binomial(100, 0.4)

מה פרמטרי הקירוב הנורמלי?

הסבר:

💡 הסבר מפורט:

פרמטרי קירוב! 🧮

📐 פתרון:

נתון:
X ~ Binomial(n=100, p=0.4)

נוסחאות בינומית:

E(X) = np

Var(X) = np(1-p)

SD(X) = √[np(1-p)]

שלב 1: בדיקת תנאים

np = 100 × 0.4 = 40 ≥ 5 ✓
n(1-p) = 100 × 0.6 = 60 ≥ 5 ✓

אפשר לקרב!

שלב 2: ממוצע

μ = np = 100 × 0.4 = 40

שלב 3: שונות

σ² = np(1-p)
= 100 × 0.4 × 0.6
= 40 × 0.6
= 24

שלב 4: סטיית תקן

σ = √24 ≈ 4.9

הקירוב הנורמלי:

X ~ N(40, 24)

או: X ~ N(40, 4.9²)
שאלה 45
10.00 נק'

🧮 תרגיל:

X ~ Binomial(100, 0.5)

חשב P(X = 55) עם קירוב נורמלי ותיקון רציפות.

הסבר:

💡 הסבר מפורט:

תיקון רציפות! 🧮

📐 פתרון:

נתון:
X ~ Binomial(100, 0.5)
רוצים: P(X = 55)

שלב 1: פרמטרי קירוב

μ = np = 100 × 0.5 = 50

σ² = np(1-p) = 100 × 0.5 × 0.5 = 25

σ = √25 = 5

→ Y ~ N(50, 25)

תיקון רציפות:

P(X = 55) במקור בדידה



P(54.5 < Y < 55.5) ברציפה

±0.5 סביב הערך!

שלב 2: תקנון

Z₁ = (54.5 - 50) / 5 = 4.5/5 = 0.9

Z₂ = (55.5 - 50) / 5 = 5.5/5 = 1.1

שלב 3: הסתברות

P(54.5 < Y < 55.5)
= P(0.9 < Z < 1.1)
= P(Z < 1.1) - P(Z < 0.9)
≈ 0.8643 - 0.8159
0.0484

💡 בלי תיקון:
היינו מקבלים P(Z = 1) = 0 (שגוי!)
שאלה 46
2.00 נק'

🧮 תרגיל:

X ~ Binomial(100, 0.5)

חשב P(X = 55) עם קירוב נורמלי ותיקון רציפות.

הסבר:

💡 הסבר מפורט:

תיקון רציפות! 🧮

📐 פתרון:

נתון:
X ~ Binomial(100, 0.5)
רוצים: P(X = 55)

שלב 1: פרמטרי קירוב

μ = np = 100 × 0.5 = 50

σ² = np(1-p) = 100 × 0.5 × 0.5 = 25

σ = √25 = 5

→ Y ~ N(50, 25)

תיקון רציפות:

P(X = 55) במקור בדידה



P(54.5 < Y < 55.5) ברציפה

±0.5 סביב הערך!

שלב 2: תקנון

Z₁ = (54.5 - 50) / 5 = 4.5/5 = 0.9

Z₂ = (55.5 - 50) / 5 = 5.5/5 = 1.1

שלב 3: הסתברות

P(54.5 < Y < 55.5)
= P(0.9 < Z < 1.1)
= P(Z < 1.1) - P(Z < 0.9)
≈ 0.8643 - 0.8159
0.0484

💡 בלי תיקון:
היינו מקבלים P(Z = 1) = 0 (שגוי!)
שאלה 47
2.00 נק'

📊 שיעור:

אם p̂ = מספר הצלחות/n, איך מתפלג p̂ כש-n גדול?

הסבר:

💡 הסבר מפורט:

התפלגות השיעור! 📊

📚 שיעור במדגם:

הגדרה:

p̂ = X/n

כאשר X ~ Binomial(n, p)

לפי CLT:

p̂ ~ N(p, p(1-p)/n)

בקירוב (כש-n גדול)

🔍 גזירה:

X ~ Binomial(n, p)

אז: E(X) = np, Var(X) = np(1-p)

p̂ = X/n הוא טרנספורמציה:

E(p̂) = E(X/n) = E(X)/n = np/n = p

Var(p̂) = Var(X/n) = Var(X)/n² = np(1-p)/n² = p(1-p)/n

💡 דוגמה:

סקר: n=400, 60% תמכו

p̂ = 0.6

SE(p̂) = √[p̂(1-p̂)/n]
= √[0.6×0.4/400]
= √[0.24/400]
= √0.0006
0.024

⭐ תנאים:

כמו בינומית:
• np ≥ 5
• n(1-p) ≥ 5

או בשיעור:
• np̂ ≥ 5
• n(1-p̂) ≥ 5

🎯 שימוש:

רווח סמך לשיעור:

p̂ ± 1.96 × √[p̂(1-p̂)/n]
שאלה 48
10.00 נק'

📊 שיעור:

אם p̂ = מספר הצלחות/n, איך מתפלג p̂ כש-n גדול?

הסבר:

💡 הסבר מפורט:

התפלגות השיעור! 📊

📚 שיעור במדגם:

הגדרה:

p̂ = X/n

כאשר X ~ Binomial(n, p)

לפי CLT:

p̂ ~ N(p, p(1-p)/n)

בקירוב (כש-n גדול)

🔍 גזירה:

X ~ Binomial(n, p)

אז: E(X) = np, Var(X) = np(1-p)

p̂ = X/n הוא טרנספורמציה:

E(p̂) = E(X/n) = E(X)/n = np/n = p

Var(p̂) = Var(X/n) = Var(X)/n² = np(1-p)/n² = p(1-p)/n

💡 דוגמה:

סקר: n=400, 60% תמכו

p̂ = 0.6

SE(p̂) = √[p̂(1-p̂)/n]
= √[0.6×0.4/400]
= √[0.24/400]
= √0.0006
0.024

⭐ תנאים:

כמו בינומית:
• np ≥ 5
• n(1-p) ≥ 5

או בשיעור:
• np̂ ≥ 5
• n(1-p̂) ≥ 5

🎯 שימוש:

רווח סמך לשיעור:

p̂ ± 1.96 × √[p̂(1-p̂)/n]
שאלה 49
10.00 נק'

🧮 תרגיל:

בסקר: n=900, p̂=0.55

בנה רווח סמך 95% ל-p.

הסבר:

💡 הסבר מפורט:

רווח סמך לשיעור! 🧮

📐 פתרון:

נוסחה:

p̂ ± 1.96 × √[p̂(1-p̂)/n]

נתונים:
• n = 900
• p̂ = 0.55

שלב 1: SE

SE = √[p̂(1-p̂)/n]

= √[0.55 × 0.45 / 900]

= √[0.2475 / 900]

= √0.000275

0.0166

שלב 2: טווח שגיאה

ME = 1.96 × 0.0166

0.0325

שלב 3: רווח

גבול תחתון: 0.55 - 0.0325 = 0.5175

גבול עליון: 0.55 + 0.0325 = 0.5825

רווח סמך 95%:

[0.518, 0.582]

או: [51.8%, 58.2%]

💡 פירוש:

אנו 95% בטוחים שהשיעור האמיתי באוכלוסייה נמצא בין 51.8% ל-58.2%
שאלה 50
2.00 נק'

🧮 תרגיל:

בסקר: n=900, p̂=0.55

בנה רווח סמך 95% ל-p.

הסבר:

💡 הסבר מפורט:

רווח סמך לשיעור! 🧮

📐 פתרון:

נוסחה:

p̂ ± 1.96 × √[p̂(1-p̂)/n]

נתונים:
• n = 900
• p̂ = 0.55

שלב 1: SE

SE = √[p̂(1-p̂)/n]

= √[0.55 × 0.45 / 900]

= √[0.2475 / 900]

= √0.000275

0.0166

שלב 2: טווח שגיאה

ME = 1.96 × 0.0166

0.0325

שלב 3: רווח

גבול תחתון: 0.55 - 0.0325 = 0.5175

גבול עליון: 0.55 + 0.0325 = 0.5825

רווח סמך 95%:

[0.518, 0.582]

או: [51.8%, 58.2%]

💡 פירוש:

אנו 95% בטוחים שהשיעור האמיתי באוכלוסייה נמצא בין 51.8% ל-58.2%
שאלה 51
2.00 נק'

🧮 תכנון מדגם:

רוצים רווח סמך לשיעור ברוחב ±3% (ביטחון 95%)

איזה n נדרש? (הנח p≈0.5)

הסבר:

💡 הסבר מפורט:

גודל מדגם לסקר! 🧮

📐 פתרון:

נוסחה לגודל מדגם:

n = (Z² × p(1-p)) / E²

E = Margin of Error רצוי

נתונים:
• E = 0.03 (3%)
• Z = 1.96 (95%)
• p = 0.5 (הנחה שמרנית)

למה p=0.5?

p(1-p) מקסימלי כש-p=0.5

0.5 × 0.5 = 0.25 ← מקסימום!

זה נותן את המדגם הגדול ביותר (שמרני)

חישוב:

n = (1.96² × 0.5 × 0.5) / 0.03²

= (3.8416 × 0.25) / 0.0009

= 0.9604 / 0.0009

= 1067.1

→ n ≈ 1068

💡 תובנה:

לרווח של ±3% צריך מדגם גדול!

זו הסיבה שסקרים משתמשים ב-n≈1000-1200
שאלה 52
10.00 נק'

🧮 תכנון מדגם:

רוצים רווח סמך לשיעור ברוחב ±3% (ביטחון 95%)

איזה n נדרש? (הנח p≈0.5)

הסבר:

💡 הסבר מפורט:

גודל מדגם לסקר! 🧮

📐 פתרון:

נוסחה לגודל מדגם:

n = (Z² × p(1-p)) / E²

E = Margin of Error רצוי

נתונים:
• E = 0.03 (3%)
• Z = 1.96 (95%)
• p = 0.5 (הנחה שמרנית)

למה p=0.5?

p(1-p) מקסימלי כש-p=0.5

0.5 × 0.5 = 0.25 ← מקסימום!

זה נותן את המדגם הגדול ביותר (שמרני)

חישוב:

n = (1.96² × 0.5 × 0.5) / 0.03²

= (3.8416 × 0.25) / 0.0009

= 0.9604 / 0.0009

= 1067.1

→ n ≈ 1068

💡 תובנה:

לרווח של ±3% צריך מדגם גדול!

זו הסיבה שסקרים משתמשים ב-n≈1000-1200
שאלה 53
10.00 נק'

📊 שני מדגמים:

אם x̄₁ ~ N(μ₁, σ₁²/n₁) ו-x̄₂ ~ N(μ₂, σ₂²/n₂) בלתי תלויים,

איך מתפלג x̄₁ - x̄₂?

הסבר:

💡 הסבר מפורט:

הפרש ממוצעים! 📊

📚 תכונה חשובה:

הפרש משתנים נורמליים:

אם:
x̄₁ ~ N(μ₁, σ₁²/n₁)
x̄₂ ~ N(μ₂, σ₂²/n₂)

ו-x̄₁, x̄₂ בלתי תלויים

אזי:

x̄₁ - x̄₂ ~ N(μ₁-μ₂, σ₁²/n₁ + σ₂²/n₂)

🔍 פירוט:

תוחלת:

E(x̄₁ - x̄₂) = E(x̄₁) - E(x̄₂)

= μ₁ - μ₂ ✓

שונות:

Var(x̄₁ - x̄₂) = Var(x̄₁) + Var(x̄₂)

(הפלוס! כי בלתי תלויים)

= σ₁²/n₁ + σ₂²/n₂ ✓

💡 דוגמה:

מדגם 1: n₁=50, x̄₁=120, σ₁=15
מדגם 2: n₂=60, x̄₂=115, σ₂=12

הפרש: x̄₁ - x̄₂ = 5

SE(הפרש) = √(15²/50 + 12²/60)
= √(4.5 + 2.4)
= √6.9
≈ 2.63

🎯 שימוש:

בדיקת השערה: μ₁ = μ₂?

Z = (x̄₁ - x̄₂) / SE(הפרש)
שאלה 54
2.00 נק'

📊 שני מדגמים:

אם x̄₁ ~ N(μ₁, σ₁²/n₁) ו-x̄₂ ~ N(μ₂, σ₂²/n₂) בלתי תלויים,

איך מתפלג x̄₁ - x̄₂?

הסבר:

💡 הסבר מפורט:

הפרש ממוצעים! 📊

📚 תכונה חשובה:

הפרש משתנים נורמליים:

אם:
x̄₁ ~ N(μ₁, σ₁²/n₁)
x̄₂ ~ N(μ₂, σ₂²/n₂)

ו-x̄₁, x̄₂ בלתי תלויים

אזי:

x̄₁ - x̄₂ ~ N(μ₁-μ₂, σ₁²/n₁ + σ₂²/n₂)

🔍 פירוט:

תוחלת:

E(x̄₁ - x̄₂) = E(x̄₁) - E(x̄₂)

= μ₁ - μ₂ ✓

שונות:

Var(x̄₁ - x̄₂) = Var(x̄₁) + Var(x̄₂)

(הפלוס! כי בלתי תלויים)

= σ₁²/n₁ + σ₂²/n₂ ✓

💡 דוגמה:

מדגם 1: n₁=50, x̄₁=120, σ₁=15
מדגם 2: n₂=60, x̄₂=115, σ₂=12

הפרש: x̄₁ - x̄₂ = 5

SE(הפרש) = √(15²/50 + 12²/60)
= √(4.5 + 2.4)
= √6.9
≈ 2.63

🎯 שימוש:

בדיקת השערה: μ₁ = μ₂?

Z = (x̄₁ - x̄₂) / SE(הפרש)
שאלה 55
2.00 נק'

🧮 תרגיל:

H₀: μ=100 vs H₁: μ≠100
נתון: x̄=106, s=15, n=25

חשב את ערך המבחן Z.

הסבר:

💡 הסבר מפורט:

בדיקת השערה! 🧮

📐 פתרון:

נוסחת מבחן Z:

Z = (x̄ - μ₀) / (s/√n)

כאשר μ₀ מתוך H₀

נתונים:
• H₀: μ = 100
• x̄ = 106
• s = 15
• n = 25

שלב 1: SE

SE = s/√n = 15/√25 = 15/5 = 3

שלב 2: Z

Z = (106 - 100) / 3

Z = 6 / 3

Z = 2

שלב 3: החלטה

|Z| = 2 > 1.96

דוחים H₀ ברמת מובהקות 5%

💡 פירוש:

x̄=106 רחוק מדי מ-μ=100

יש ראיה חזקה ש-μ ≠ 100
שאלה 56
10.00 נק'

🧮 תרגיל:

H₀: μ=100 vs H₁: μ≠100
נתון: x̄=106, s=15, n=25

חשב את ערך המבחן Z.

הסבר:

💡 הסבר מפורט:

בדיקת השערה! 🧮

📐 פתרון:

נוסחת מבחן Z:

Z = (x̄ - μ₀) / (s/√n)

כאשר μ₀ מתוך H₀

נתונים:
• H₀: μ = 100
• x̄ = 106
• s = 15
• n = 25

שלב 1: SE

SE = s/√n = 15/√25 = 15/5 = 3

שלב 2: Z

Z = (106 - 100) / 3

Z = 6 / 3

Z = 2

שלב 3: החלטה

|Z| = 2 > 1.96

דוחים H₀ ברמת מובהקות 5%

💡 פירוש:

x̄=106 רחוק מדי מ-μ=100

יש ראיה חזקה ש-μ ≠ 100
שאלה 57
10.00 נק'

🧮 תרגיל:

מבחן חד-צדדי: H₀: μ≤100 vs H₁: μ>100
קיבלנו Z=2.5

מה ה-p-value בקירוב?

הסבר:

💡 הסבר מפורט:

חישוב p-value! 🧮

📐 פתרון:

נתונים:
• מבחן חד-צדדי (ימני)
• H₁: μ > 100
• Z = 2.5

הגדרת p-value:

p-value = P(Z > 2.5)

ההסתברות לקבל Z כזה או גדול יותר
בהנחה ש-H₀ נכונה

מטבלת Z:

P(Z < 2.5) ≈ 0.9938

לכן:

P(Z > 2.5) = 1 - 0.9938

= 0.0062

0.006

💡 פירוש:

p-value = 0.006 < 0.05

דוחים H₀

התוצאה מובהקת סטטיסטית!

זכור:
• p-value קטן → דחייה
• p-value גדול → אי דחייה
שאלה 58
2.00 נק'

🧮 תרגיל:

מבחן חד-צדדי: H₀: μ≤100 vs H₁: μ>100
קיבלנו Z=2.5

מה ה-p-value בקירוב?

הסבר:

💡 הסבר מפורט:

חישוב p-value! 🧮

📐 פתרון:

נתונים:
• מבחן חד-צדדי (ימני)
• H₁: μ > 100
• Z = 2.5

הגדרת p-value:

p-value = P(Z > 2.5)

ההסתברות לקבל Z כזה או גדול יותר
בהנחה ש-H₀ נכונה

מטבלת Z:

P(Z < 2.5) ≈ 0.9938

לכן:

P(Z > 2.5) = 1 - 0.9938

= 0.0062

0.006

💡 פירוש:

p-value = 0.006 < 0.05

דוחים H₀

התוצאה מובהקת סטטיסטית!

זכור:
• p-value קטן → דחייה
• p-value גדול → אי דחייה
שאלה 59
2.00 נק'

📊 עוצמה:

מה קורה לעוצמת המבחן (Power) כאשר n גדל?

הסבר:

💡 הסבר מפורט:

עוצמה ו-n! 📊

📚 עוצמת מבחן:

הגדרה:

Power = 1 - β

= ההסתברות לדחות H₀
כאשר H₀ שגויה

= הסיכוי "לגלות אמת"

🔍 הקשר ל-n:

כאשר n גדל:

1️⃣ SE = σ/√n קטן

2️⃣ סטטיסטי המבחן Z גדל

3️⃣ קל יותר לדחות H₀ כשהיא שגויה

4️⃣ Power גדל

💡 דוגמה:

נניח: μ אמיתי = 105, H₀: μ=100

n=25:
SE=3, Z≈1.67
Power ≈ 0.40
n=100:
SE=1.5, Z≈3.33
Power ≈ 0.95
n=400:
SE=0.75, Z≈6.67
Power ≈ 1.00

⭐ סיכום:

n גדל → Power גדל

מדגם גדול = מבחן חזק יותר!

קל יותר לגלות הבדלים אמיתיים
שאלה 60
10.00 נק'

📊 עוצמה:

מה קורה לעוצמת המבחן (Power) כאשר n גדל?

הסבר:

💡 הסבר מפורט:

עוצמה ו-n! 📊

📚 עוצמת מבחן:

הגדרה:

Power = 1 - β

= ההסתברות לדחות H₀
כאשר H₀ שגויה

= הסיכוי "לגלות אמת"

🔍 הקשר ל-n:

כאשר n גדל:

1️⃣ SE = σ/√n קטן

2️⃣ סטטיסטי המבחן Z גדל

3️⃣ קל יותר לדחות H₀ כשהיא שגויה

4️⃣ Power גדל

💡 דוגמה:

נניח: μ אמיתי = 105, H₀: μ=100

n=25:
SE=3, Z≈1.67
Power ≈ 0.40
n=100:
SE=1.5, Z≈3.33
Power ≈ 0.95
n=400:
SE=0.75, Z≈6.67
Power ≈ 1.00

⭐ סיכום:

n גדל → Power גדל

מדגם גדול = מבחן חזק יותר!

קל יותר לגלות הבדלים אמיתיים
שאלה 61
10.00 נק'

🔧 אוכלוסייה סופית:

כשדוגמים ללא החזרה מאוכלוסייה סופית בגודל N,
והמדגם גדול יחסית (n/N > 0.05),

איך מתקנים את SE?

הסבר:

💡 הסבר מפורט:

תיקון אוכלוסייה סופית! 🔧

📚 תיקון FPC:

Finite Population Correction:

SE = (σ/√n) × √[(N-n)/(N-1)]

או בקירוב:

SE ≈ (σ/√n) × √[(N-n)/N]

כאשר N = גודל האוכלוסייה

🔍 מתי להשתמש?

✓ דגימה ללא החזרה
✓ מאוכלוסייה סופית
✓ n/N > 0.05 (5% או יותר)

✗ אם n/N < 0.05 → התיקון זניח, אפשר להתעלם

💡 דוגמה:

N = 200 (אוכלוסייה)
n = 50 (מדגם)
σ = 20

n/N = 50/200 = 0.25 > 0.05 → צריך תיקון!

ללא תיקון:
SE = 20/√50 ≈ 2.83

עם תיקון:
FPC = √[(200-50)/(200-1)]
= √(150/199)
≈ 0.868

SE = 2.83 × 0.868 ≈ 2.46

הפחתה של ~13%!

⭐ תובנה:

כשדוגמים חלק גדול מהאוכלוסייה:
→ יש פחות אי-ודאות
→ SE קטן יותר

במקרה קיצון: n=N
→ FPC = 0
→ SE = 0 (אין שגיאה - יש את כל האוכלוסייה!)
שאלה 62
2.00 נק'

🔧 אוכלוסייה סופית:

כשדוגמים ללא החזרה מאוכלוסייה סופית בגודל N,
והמדגם גדול יחסית (n/N > 0.05),

איך מתקנים את SE?

הסבר:

💡 הסבר מפורט:

תיקון אוכלוסייה סופית! 🔧

📚 תיקון FPC:

Finite Population Correction:

SE = (σ/√n) × √[(N-n)/(N-1)]

או בקירוב:

SE ≈ (σ/√n) × √[(N-n)/N]

כאשר N = גודל האוכלוסייה

🔍 מתי להשתמש?

✓ דגימה ללא החזרה
✓ מאוכלוסייה סופית
✓ n/N > 0.05 (5% או יותר)

✗ אם n/N < 0.05 → התיקון זניח, אפשר להתעלם

💡 דוגמה:

N = 200 (אוכלוסייה)
n = 50 (מדגם)
σ = 20

n/N = 50/200 = 0.25 > 0.05 → צריך תיקון!

ללא תיקון:
SE = 20/√50 ≈ 2.83

עם תיקון:
FPC = √[(200-50)/(200-1)]
= √(150/199)
≈ 0.868

SE = 2.83 × 0.868 ≈ 2.46

הפחתה של ~13%!

⭐ תובנה:

כשדוגמים חלק גדול מהאוכלוסייה:
→ יש פחות אי-ודאות
→ SE קטן יותר

במקרה קיצון: n=N
→ FPC = 0
→ SE = 0 (אין שגיאה - יש את כל האוכלוסייה!)
שאלה 63
2.00 נק'

📊 הכללה:

האם CLT חל גם כש-X₁, X₂, ..., Xₙ
בלתי תלויים אבל לא בהכרח זהים?

הסבר:

💡 הסבר מפורט:

CLT כללי! 📊

📚 הכללת CLT:

משפט לינדברג-לוי:

אם X₁, X₂, ..., Xₙ בלתי תלויים

(אבל לא בהכרח זהים!)

עם E(Xᵢ)=μᵢ, Var(Xᵢ)=σᵢ²

ומתקיימים תנאים טכניים מסוימים,

אזי:

ΣXᵢ מתפלג נורמלית (כש-n→∞)

🔍 התנאים:

התנאי של לינדברג (מורכב):

בגדול: אף אחד מה-Xᵢ לא "שולט"

כלומר: כל σᵢ² קטן יחסית לסכום כל השונויות

💡 מקרה מיוחד:

אם כל ה-Xᵢ זהים (i.i.d)
→ התנאים מתקיימים אוטומטית!
→ זה ה-CLT הרגיל שלנו

🎯 דוגמה מעשית:

סכום הכנסות:
• חודש 1: μ₁=5000, σ₁=500
• חודש 2: μ₂=6000, σ₂=600
• חודש 3: μ₃=5500, σ₃=550
• ...

הסכום השנתי (12 חודשים):
→ מתפלג נורמלית בקירוב!

גם אם כל חודש שונה

⭐ המסר:

CLT חזק מאוד!

לא צריך שהמשתנים יהיו זהים

מספיק שיהיו:
• בלתי תלויים
• אף אחד לא דומיננטי
• מספיק הרבה מהם
שאלה 64
10.00 נק'

📊 הכללה:

האם CLT חל גם כש-X₁, X₂, ..., Xₙ
בלתי תלויים אבל לא בהכרח זהים?

הסבר:

💡 הסבר מפורט:

CLT כללי! 📊

📚 הכללת CLT:

משפט לינדברג-לוי:

אם X₁, X₂, ..., Xₙ בלתי תלויים

(אבל לא בהכרח זהים!)

עם E(Xᵢ)=μᵢ, Var(Xᵢ)=σᵢ²

ומתקיימים תנאים טכניים מסוימים,

אזי:

ΣXᵢ מתפלג נורמלית (כש-n→∞)

🔍 התנאים:

התנאי של לינדברג (מורכב):

בגדול: אף אחד מה-Xᵢ לא "שולט"

כלומר: כל σᵢ² קטן יחסית לסכום כל השונויות

💡 מקרה מיוחד:

אם כל ה-Xᵢ זהים (i.i.d)
→ התנאים מתקיימים אוטומטית!
→ זה ה-CLT הרגיל שלנו

🎯 דוגמה מעשית:

סכום הכנסות:
• חודש 1: μ₁=5000, σ₁=500
• חודש 2: μ₂=6000, σ₂=600
• חודש 3: μ₃=5500, σ₃=550
• ...

הסכום השנתי (12 חודשים):
→ מתפלג נורמלית בקירוב!

גם אם כל חודש שונה

⭐ המסר:

CLT חזק מאוד!

לא צריך שהמשתנים יהיו זהים

מספיק שיהיו:
• בלתי תלויים
• אף אחד לא דומיננטי
• מספיק הרבה מהם
שאלה 65
10.00 נק'

📈 קצב:

באיזה קצב הקירוב הנורמלי משתפר כ-n גדל?

הסבר:

💡 הסבר מפורט:

קצב התכנסות! 📈

📚 משפט Berry-Esseen:

קצב ההתכנסות:

השגיאה בקירוב הנורמלי:

O(1/√n)

כלומר: השגיאה פרופורציונלית ל-1/√n

🔍 משמעות:

כדי לחצות את השגיאה בחצי:
→ צריך להכפיל את n פי 4

כדי לחצות את השגיאה ל-1/10:
→ צריך להכפיל את n פי 100

💡 דוגמה:

nשגיאה
25C/5
100C/10
400C/20
10,000C/100

(C = קבוע שתלוי בהתפלגות)

⭐ תובנות:

1️⃣ השיפור איטי יחסית

2️⃣ כבר ב-n=30-50 הקירוב טוב מאוד

3️⃣ להגיע לדיוק גבוה מאוד "יקר" במונחי n

💡 השוואה:

• חוק המספרים הגדולים: 1/n
• CLT: 1/√n (איטי יותר)
שאלה 66
2.00 נק'

📈 קצב:

באיזה קצב הקירוב הנורמלי משתפר כ-n גדל?

הסבר:

💡 הסבר מפורט:

קצב התכנסות! 📈

📚 משפט Berry-Esseen:

קצב ההתכנסות:

השגיאה בקירוב הנורמלי:

O(1/√n)

כלומר: השגיאה פרופורציונלית ל-1/√n

🔍 משמעות:

כדי לחצות את השגיאה בחצי:
→ צריך להכפיל את n פי 4

כדי לחצות את השגיאה ל-1/10:
→ צריך להכפיל את n פי 100

💡 דוגמה:

nשגיאה
25C/5
100C/10
400C/20
10,000C/100

(C = קבוע שתלוי בהתפלגות)

⭐ תובנות:

1️⃣ השיפור איטי יחסית

2️⃣ כבר ב-n=30-50 הקירוב טוב מאוד

3️⃣ להגיע לדיוק גבוה מאוד "יקר" במונחי n

💡 השוואה:

• חוק המספרים הגדולים: 1/n
• CLT: 1/√n (איטי יותר)
שאלה 67
2.00 נק'

🔗 תלות:

האם CLT יכול לחול גם כש-Xᵢ לא בלתי תלויים לחלוטין?

הסבר:

💡 הסבר מפורט:

CLT עם תלות! 🔗

📚 תלות חלשה:

הכללה:

CLT חל גם כאשר יש תלות חלשה

כלומר: Xᵢ ו-Xⱼ תלויים,
אבל התלות נחלשת כש-|i-j| גדל

🔍 מה זה תלות חלשה?

תנאי "ערבוב" (mixing):

התלות בין Xᵢ ו-Xⱼ נחלשת
כאשר המרחק ביניהם גדל

דוגמה: סדרות זמן

💡 דוגמאות מעשיות:

סדרות זמן:
מחיר מניה היום תלוי קלות במחיר אתמול
אבל כמעט לא תלוי במחיר לפני שנה
→ CLT חל!

נתונים מרחביים:
טמפרטורה בנקודה תלויה בשכנות
אבל לא ב-100 ק״מ משם
→ CLT חל!

תלות חזקה:
אם X₁=X₂=...=Xₙ (תלות מלאה!)
→ CLT לא חל

⭐ למה זה חשוב?

בעולם האמיתי לעיתים קרובות יש תלות

אבל CLT עדיין עובד!

(אם התלות לא חזקה מדי)

💡 שימושים:

• אקונומטריה
• ניתוח סדרות זמן
• גיאוסטטיסטיקה
• למידת מכונה
שאלה 68
10.00 נק'

🔗 תלות:

האם CLT יכול לחול גם כש-Xᵢ לא בלתי תלויים לחלוטין?

הסבר:

💡 הסבר מפורט:

CLT עם תלות! 🔗

📚 תלות חלשה:

הכללה:

CLT חל גם כאשר יש תלות חלשה

כלומר: Xᵢ ו-Xⱼ תלויים,
אבל התלות נחלשת כש-|i-j| גדל

🔍 מה זה תלות חלשה?

תנאי "ערבוב" (mixing):

התלות בין Xᵢ ו-Xⱼ נחלשת
כאשר המרחק ביניהם גדל

דוגמה: סדרות זמן

💡 דוגמאות מעשיות:

סדרות זמן:
מחיר מניה היום תלוי קלות במחיר אתמול
אבל כמעט לא תלוי במחיר לפני שנה
→ CLT חל!

נתונים מרחביים:
טמפרטורה בנקודה תלויה בשכנות
אבל לא ב-100 ק״מ משם
→ CLT חל!

תלות חזקה:
אם X₁=X₂=...=Xₙ (תלות מלאה!)
→ CLT לא חל

⭐ למה זה חשוב?

בעולם האמיתי לעיתים קרובות יש תלות

אבל CLT עדיין עובד!

(אם התלות לא חזקה מדי)

💡 שימושים:

• אקונומטריה
• ניתוח סדרות זמן
• גיאוסטטיסטיקה
• למידת מכונה
שאלה 69
10.00 נק'

🎯 וקטורים:

האם CLT חל גם על וקטורים מקריים?

הסבר:

💡 הסבר מפורט:

CLT רב-ממדי! 🎯

📚 CLT לוקטורים:

משפט הגבול המרכזי הרב-ממדי:

אם X₁, X₂, ..., X
וקטורים אקראיים בלתי תלויים

עם תוחלת μ ומטריצת שונות Σ

אזי:

→ N(μ, Σ/n)

🔍 דוגמה:

וקטור דו-ממדי:
X = (גובה, משקל)

E(X) = (170, 70)

Cov(X) = מטריצת שונות-שונות משותפת

ממוצע של n אנשים:
~ N₂(μ, Σ/n)

(N₂ = נורמלית דו-ממדית)

💡 שימושים:

• רגרסיה מרובת משתנים
• ניתוח רכיבים עיקריים (PCA)
• למידת מכונה מפוקחת
• אקונומטריה

⭐ תכונות:

1️⃣ כל צירוף לינארי של הרכיבים
מתפלג נורמלית

2️⃣ מאפשר בדיקות השערות משותפות

3️⃣ רווחי סמך לוקטור פרמטרים
שאלה 70
2.00 נק'

🎯 וקטורים:

האם CLT חל גם על וקטורים מקריים?

הסבר:

💡 הסבר מפורט:

CLT רב-ממדי! 🎯

📚 CLT לוקטורים:

משפט הגבול המרכזי הרב-ממדי:

אם X₁, X₂, ..., X
וקטורים אקראיים בלתי תלויים

עם תוחלת μ ומטריצת שונות Σ

אזי:

→ N(μ, Σ/n)

🔍 דוגמה:

וקטור דו-ממדי:
X = (גובה, משקל)

E(X) = (170, 70)

Cov(X) = מטריצת שונות-שונות משותפת

ממוצע של n אנשים:
~ N₂(μ, Σ/n)

(N₂ = נורמלית דו-ממדית)

💡 שימושים:

• רגרסיה מרובת משתנים
• ניתוח רכיבים עיקריים (PCA)
• למידת מכונה מפוקחת
• אקונומטריה

⭐ תכונות:

1️⃣ כל צירוף לינארי של הרכיבים
מתפלג נורמלית

2️⃣ מאפשר בדיקות השערות משותפות

3️⃣ רווחי סמך לוקטור פרמטרים
שאלה 71
2.00 נק'

🔧 טרנספורמציות:

אם x̄ ~ N(μ, σ²/n) ו-g פונקציה חלקה,

איך מתפלג g(x̄) בקירוב?

הסבר:

💡 הסבר מפורט:

שיטת דלתא! 🔧

📚 Delta Method:

שיטת דלתא:

אם x̄ ~ N(μ, σ²/n)

ו-g פונקציה חלקה (גזירה)

אזי:

g(x̄) ~ N(g(μ), [g\(μ)]² × σ²/n)

בקירוב (כש-n גדול)

🔍 רעיון:

קירוב טיילור מסדר ראשון:

g(x̄) ≈ g(μ) + g\(μ) × (x̄ - μ)

זו טרנספורמציה לינארית של x̄
→ נשאר נורמלי!

💡 דוגמאות:

1️⃣ לוגריתם:
g(x) = log(x)
g\(x) = 1/x

→ log(x̄) ~ N(log(μ), σ²/(nμ²))

2️⃣ שורש:
g(x) = √x
g\(x) = 1/(2√x)

→ √x̄ ~ N(√μ, σ²/(4nμ))

3️⃣ הופכי:
g(x) = 1/x
g\(x) = -1/x²

→ 1/x̄ ~ N(1/μ, σ²/(nμ⁴))

⭐ שימושים:

• רווחי סמך לפונקציות של פרמטרים
• בדיקות השערות עם טרנספורמציות
• אומדים של פונקציות
שאלה 72
10.00 נק'

🔧 טרנספורמציות:

אם x̄ ~ N(μ, σ²/n) ו-g פונקציה חלקה,

איך מתפלג g(x̄) בקירוב?

הסבר:

💡 הסבר מפורט:

שיטת דלתא! 🔧

📚 Delta Method:

שיטת דלתא:

אם x̄ ~ N(μ, σ²/n)

ו-g פונקציה חלקה (גזירה)

אזי:

g(x̄) ~ N(g(μ), [g\(μ)]² × σ²/n)

בקירוב (כש-n גדול)

🔍 רעיון:

קירוב טיילור מסדר ראשון:

g(x̄) ≈ g(μ) + g\(μ) × (x̄ - μ)

זו טרנספורמציה לינארית של x̄
→ נשאר נורמלי!

💡 דוגמאות:

1️⃣ לוגריתם:
g(x) = log(x)
g\(x) = 1/x

→ log(x̄) ~ N(log(μ), σ²/(nμ²))

2️⃣ שורש:
g(x) = √x
g\(x) = 1/(2√x)

→ √x̄ ~ N(√μ, σ²/(4nμ))

3️⃣ הופכי:
g(x) = 1/x
g\(x) = -1/x²

→ 1/x̄ ~ N(1/μ, σ²/(nμ⁴))

⭐ שימושים:

• רווחי סמך לפונקציות של פרמטרים
• בדיקות השערות עם טרנספורמציות
• אומדים של פונקציות
שאלה 73
10.00 נק'

💻 Bootstrap:

מה הקשר בין Bootstrap ל-CLT?

הסבר:

💡 הסבר מפורט:

Bootstrap ו-CLT! 💻

📚 Bootstrap:

שיטת Bootstrap:

1️⃣ יש לנו מדגם מקורי בגודל n

2️⃣ דוגמים ממנו n תצפיות עם החזרה

3️⃣ מחשבים סטטיסטי (למשל x̄)

4️⃣ חוזרים על זה B פעמים (למשל 1000)

5️⃣ מקבלים התפלגות אמפירית של הסטטיסטי

🔗 הקשר ל-CLT:

CLT אומר:
x̄ מתפלג נורמלית בקירוב

Bootstrap עושה:
מקרב את ההתפלגות הזו אמפירית
ע"י דגימה חוזרת מהמדגם

💡 יתרונות Bootstrap:

✓ עובד גם כש-n קטן מדי ל-CLT
✓ לא צריך נוסחאות אנליטיות
✓ עובד לסטטיסטים מורכבים
✓ לא מניח נורמליות

⭐ דוגמה:

מדגם מקורי: {12, 15, 18, 14, 16}

Bootstrap מדגם 1:
{12, 12, 18, 14, 16} → x̄₁ = 14.4

Bootstrap מדגם 2:
{15, 18, 18, 15, 14} → x̄₂ = 16

⋮ (1000 פעמים)

→ מקבלים התפלגות של x̄

🎯 מתי להשתמש?

CLT:
• n גדול
• סטטיסטי פשוט
• יש נוסחה
Bootstrap:
• n קטן/בינוני
• סטטיסטי מורכב
• אין נוסחה
שאלה 74
2.00 נק'

💻 Bootstrap:

מה הקשר בין Bootstrap ל-CLT?

הסבר:

💡 הסבר מפורט:

Bootstrap ו-CLT! 💻

📚 Bootstrap:

שיטת Bootstrap:

1️⃣ יש לנו מדגם מקורי בגודל n

2️⃣ דוגמים ממנו n תצפיות עם החזרה

3️⃣ מחשבים סטטיסטי (למשל x̄)

4️⃣ חוזרים על זה B פעמים (למשל 1000)

5️⃣ מקבלים התפלגות אמפירית של הסטטיסטי

🔗 הקשר ל-CLT:

CLT אומר:
x̄ מתפלג נורמלית בקירוב

Bootstrap עושה:
מקרב את ההתפלגות הזו אמפירית
ע"י דגימה חוזרת מהמדגם

💡 יתרונות Bootstrap:

✓ עובד גם כש-n קטן מדי ל-CLT
✓ לא צריך נוסחאות אנליטיות
✓ עובד לסטטיסטים מורכבים
✓ לא מניח נורמליות

⭐ דוגמה:

מדגם מקורי: {12, 15, 18, 14, 16}

Bootstrap מדגם 1:
{12, 12, 18, 14, 16} → x̄₁ = 14.4

Bootstrap מדגם 2:
{15, 18, 18, 15, 14} → x̄₂ = 16

⋮ (1000 פעמים)

→ מקבלים התפלגות של x̄

🎯 מתי להשתמש?

CLT:
• n גדול
• סטטיסטי פשוט
• יש נוסחה
Bootstrap:
• n קטן/בינוני
• סטטיסטי מורכב
• אין נוסחה
שאלה 75
2.00 נק'

📈 רגרסיה:

מה התפקיד של CLT ברגרסיה לינארית?

הסבר:

💡 הסבר מפורט:

CLT ורגרסיה! 📈

📚 רגרסיה לינארית:

המודל:

Y = β₀ + β₁X + ε

כאשר ε ~ N(0, σ²)

האומדים:
β̂₀, β̂₁ מחושבים מהמדגם

🔗 תפקיד CLT:

האומדים β̂₀, β̂₁ הם בעצם
פונקציות של הנתונים

לפי CLT (כש-n גדול):

β̂₁ ~ N(β₁, SE²)

β̂₀ ~ N(β₀, SE²)

זה מאפשר:

רווחי סמך למקדמים
בדיקות t למובהקות
חיזוי עם רווחי סמך

💡 דוגמה:

רגרסיה: גובה vs משקל
n = 100

β̂₁ = 0.8 (אומד)
SE(β̂₁) = 0.1

בדיקה:
H₀: β₁ = 0 (אין קשר)

t = 0.8 / 0.1 = 8

→ מובהק מאוד!

⚠️ הנחות:

1️⃣ n מספיק גדול (בד״כ >30)

2️⃣ או: שגיאות ε נורמליות (אז לכל n)

3️⃣ שגיאות בלתי תלויות

⭐ המסר:

CLT הוא הבסיס להסקה סטטיסטית
כמעט בכל מודל!
שאלה 76
10.00 נק'

📈 רגרסיה:

מה התפקיד של CLT ברגרסיה לינארית?

הסבר:

💡 הסבר מפורט:

CLT ורגרסיה! 📈

📚 רגרסיה לינארית:

המודל:

Y = β₀ + β₁X + ε

כאשר ε ~ N(0, σ²)

האומדים:
β̂₀, β̂₁ מחושבים מהמדגם

🔗 תפקיד CLT:

האומדים β̂₀, β̂₁ הם בעצם
פונקציות של הנתונים

לפי CLT (כש-n גדול):

β̂₁ ~ N(β₁, SE²)

β̂₀ ~ N(β₀, SE²)

זה מאפשר:

רווחי סמך למקדמים
בדיקות t למובהקות
חיזוי עם רווחי סמך

💡 דוגמה:

רגרסיה: גובה vs משקל
n = 100

β̂₁ = 0.8 (אומד)
SE(β̂₁) = 0.1

בדיקה:
H₀: β₁ = 0 (אין קשר)

t = 0.8 / 0.1 = 8

→ מובהק מאוד!

⚠️ הנחות:

1️⃣ n מספיק גדול (בד״כ >30)

2️⃣ או: שגיאות ε נורמליות (אז לכל n)

3️⃣ שגיאות בלתי תלויות

⭐ המסר:

CLT הוא הבסיס להסקה סטטיסטית
כמעט בכל מודל!
שאלה 77
10.00 נק'

📊 מובהקות מעשית:

עם n גדול מאוד, למה חשוב לבדוק גודל אפקט ולא רק מובהקות סטטיסטית?

הסבר:

💡 הסבר מפורט:

מובהקות סטטיסטית vs מעשית! 📊

⚠️ הבעיה עם n גדול:

הפרדוקס:

כאשר n → ∞

SE = σ/√n → 0

→ כל הבדל, גם זעיר,
יהיה מובהק סטטיסטית!

אבל לא בהכרח משמעותי מעשית

💡 דוגמה:

מבחן תרופה חדשה
n = 1,000,000 חולים

קבוצת ביקורת: μ₁ = 10.00 ימי החלמה
קבוצת תרופה: μ₂ = 9.95 ימי החלמה

הפרש: 0.05 ימים = 1.2 שעות

מבחן סטטיסטי:
p-value < 0.001
→ מובהק מאוד! ⭐⭐⭐

אבל:
הבדל של 1.2 שעות
לא משמעותי קלינית
→ לא שווה את העלות/תופעות לוואי

📏 גודל אפקט:

Cohen\s d:

d = (μ₁ - μ₂) / σ

• d < 0.2: אפקט זעיר
• d ≈ 0.5: אפקט בינוני
• d > 0.8: אפקט גדול

⭐ המסר:

מובהקות סטטיסטית:
"האם ההבדל אמיתי?"
(לא מקרי)
מובהקות מעשית:
"האם ההבדל משמעותי?"
(שווה תשומת לב)

שניהם חשובים!

עם n גדול: בדוק תמיד גודל אפקט
שאלה 78
2.00 נק'

📊 מובהקות מעשית:

עם n גדול מאוד, למה חשוב לבדוק גודל אפקט ולא רק מובהקות סטטיסטית?

הסבר:

💡 הסבר מפורט:

מובהקות סטטיסטית vs מעשית! 📊

⚠️ הבעיה עם n גדול:

הפרדוקס:

כאשר n → ∞

SE = σ/√n → 0

→ כל הבדל, גם זעיר,
יהיה מובהק סטטיסטית!

אבל לא בהכרח משמעותי מעשית

💡 דוגמה:

מבחן תרופה חדשה
n = 1,000,000 חולים

קבוצת ביקורת: μ₁ = 10.00 ימי החלמה
קבוצת תרופה: μ₂ = 9.95 ימי החלמה

הפרש: 0.05 ימים = 1.2 שעות

מבחן סטטיסטי:
p-value < 0.001
→ מובהק מאוד! ⭐⭐⭐

אבל:
הבדל של 1.2 שעות
לא משמעותי קלינית
→ לא שווה את העלות/תופעות לוואי

📏 גודל אפקט:

Cohen\s d:

d = (μ₁ - μ₂) / σ

• d < 0.2: אפקט זעיר
• d ≈ 0.5: אפקט בינוני
• d > 0.8: אפקט גדול

⭐ המסר:

מובהקות סטטיסטית:
"האם ההבדל אמיתי?"
(לא מקרי)
מובהקות מעשית:
"האם ההבדל משמעותי?"
(שווה תשומת לב)

שניהם חשובים!

עם n גדול: בדוק תמיד גודל אפקט
שאלה 79
2.00 נק'

🌟 סיכום:

למה משפט הגבול המרכזי נחשב ל"חשוב ביותר בסטטיסטיקה"?

הסבר:

💡 הסבר מפורט:

החשיבות של CLT! 🌟

🎯 למה CLT כל כך חשוב?

10 הסיבות המרכזיות:

1️⃣ אוניברסליות
עובד לכל התפלגות!

2️⃣ פשטות
תמיד נורמלית - טבלה אחת

3️⃣ בסיס להסקה
רווחי סמך, בדיקות השערות

4️⃣ רגרסיה
מקדמים מתפלגים נורמלית

5️⃣ סקרים
אומדי שיעורים

6️⃣ בקרת איכות
גרפי בקרה

7️⃣ פיננסים
מודלים לתיקים

8️⃣ למידת מכונה
תיאוריית הלמידה

9️⃣ מדעי החיים
ניסויים קליניים

🔟 מדעי החברה
סקרי דעת קהל

💡 המהפכה:

לפני CLT:
• כל התפלגות = בעיה נפרדת
• קשה להכליל
• מוגבל מאוד

אחרי CLT:
כל התפלגות → נורמלית
• שיטות אחידות
• הסקה כמעט תמיד אפשרית!

⭐ הציטוט המפורסם:

"כולם מאמינים ב[נורמלית]:

הניסויניים חושבים שזה משפט מתמטי,

המתמטיקאים חושבים שזו עובדה ניסויית."

- ליפלס

🎓 המסר האחרון:

CLT הוא הגשר בין:
• אי-ודאות (משתנים מקריים)
• וודאות (התפלגות נורמלית)

זו הסיבה שהוא:
"המשפט החשוב ביותר בסטטיסטיקה"
שאלה 80
10.00 נק'

🌟 סיכום:

למה משפט הגבול המרכזי נחשב ל"חשוב ביותר בסטטיסטיקה"?

הסבר:

💡 הסבר מפורט:

החשיבות של CLT! 🌟

🎯 למה CLT כל כך חשוב?

10 הסיבות המרכזיות:

1️⃣ אוניברסליות
עובד לכל התפלגות!

2️⃣ פשטות
תמיד נורמלית - טבלה אחת

3️⃣ בסיס להסקה
רווחי סמך, בדיקות השערות

4️⃣ רגרסיה
מקדמים מתפלגים נורמלית

5️⃣ סקרים
אומדי שיעורים

6️⃣ בקרת איכות
גרפי בקרה

7️⃣ פיננסים
מודלים לתיקים

8️⃣ למידת מכונה
תיאוריית הלמידה

9️⃣ מדעי החיים
ניסויים קליניים

🔟 מדעי החברה
סקרי דעת קהל

💡 המהפכה:

לפני CLT:
• כל התפלגות = בעיה נפרדת
• קשה להכליל
• מוגבל מאוד

אחרי CLT:
כל התפלגות → נורמלית
• שיטות אחידות
• הסקה כמעט תמיד אפשרית!

⭐ הציטוט המפורסם:

"כולם מאמינים ב[נורמלית]:

הניסויניים חושבים שזה משפט מתמטי,

המתמטיקאים חושבים שזו עובדה ניסויית."

- ליפלס

🎓 המסר האחרון:

CLT הוא הגשר בין:
• אי-ודאות (משתנים מקריים)
• וודאות (התפלגות נורמלית)

זו הסיבה שהוא:
"המשפט החשוב ביותר בסטטיסטיקה"
שאלה 81
10.00 נק'

🧮 תרגיל מקיף:

מפעל מייצר ברגים. קוטר: μ=10mm, σ=0.5mm
בודקים מדגם של n=100 ברגים

מה ההסתברות שממוצע המדגם יהיה בין 9.9 ל-10.1?

הסבר:

💡 הסבר מפורט:

תרגיל מקיף! 🧮

📐 פתרון מלא:

שלב 1: נתונים
• μ = 10
• σ = 0.5
• n = 100
• רוצים: P(9.9 < x̄ < 10.1)

שלב 2: התפלגות x̄

לפי CLT:
x̄ ~ N(10, 0.5²/100)
= N(10, 0.0025)

SE = 0.5/10 = 0.05

שלב 3: תקנון

Z₁ = (9.9 - 10) / 0.05 = -0.1/0.05 = -2

Z₂ = (10.1 - 10) / 0.05 = 0.1/0.05 = +2

שלב 4: הסתברות

P(-2 < Z < 2) ≈ 0.95

💡 פירוש:
95% מהמדגמים יהיו בטווח זה

זה בדיוק ±2 סטיות תקן!
שאלה 82
2.00 נק'

🧮 תרגיל מקיף:

מפעל מייצר ברגים. קוטר: μ=10mm, σ=0.5mm
בודקים מדגם של n=100 ברגים

מה ההסתברות שממוצע המדגם יהיה בין 9.9 ל-10.1?

הסבר:

💡 הסבר מפורט:

תרגיל מקיף! 🧮

📐 פתרון מלא:

שלב 1: נתונים
• μ = 10
• σ = 0.5
• n = 100
• רוצים: P(9.9 < x̄ < 10.1)

שלב 2: התפלגות x̄

לפי CLT:
x̄ ~ N(10, 0.5²/100)
= N(10, 0.0025)

SE = 0.5/10 = 0.05

שלב 3: תקנון

Z₁ = (9.9 - 10) / 0.05 = -0.1/0.05 = -2

Z₂ = (10.1 - 10) / 0.05 = 0.1/0.05 = +2

שלב 4: הסתברות

P(-2 < Z < 2) ≈ 0.95

💡 פירוש:
95% מהמדגמים יהיו בטווח זה

זה בדיוק ±2 סטיות תקן!
שאלה 83
2.00 נק'

🧮 תרגיל מקיף:

גובה נשים: μ=165, σ=6
לוקחים מדגם של 36 נשים

מצא c כך ש-P(x̄ > c) = 0.05

הסבר:

💡 הסבר מפורט:

מציאת ערך קריטי! 🧮

📐 פתרון:

שלב 1: SE
SE = 6/√36 = 6/6 = 1

שלב 2: Z
P(x̄ > c) = 0.05
→ P(Z > z) = 0.05
→ z = 1.645

שלב 3: המרה
Z = (c - μ) / SE
1.645 = (c - 165) / 1
c = 165 + 1.645
c = 166.645

💡 פירוש:
רק 5% מהממוצעים יהיו מעל 166.645
שאלה 84
10.00 נק'

🧮 תרגיל מקיף:

גובה נשים: μ=165, σ=6
לוקחים מדגם של 36 נשים

מצא c כך ש-P(x̄ > c) = 0.05

הסבר:

💡 הסבר מפורט:

מציאת ערך קריטי! 🧮

📐 פתרון:

שלב 1: SE
SE = 6/√36 = 6/6 = 1

שלב 2: Z
P(x̄ > c) = 0.05
→ P(Z > z) = 0.05
→ z = 1.645

שלב 3: המרה
Z = (c - μ) / SE
1.645 = (c - 165) / 1
c = 165 + 1.645
c = 166.645

💡 פירוש:
רק 5% מהממוצעים יהיו מעל 166.645
שאלה 85
10.00 נק'

🧮 תרגיל מקיף:

X ~ Binomial(200, 0.3)

השתמש בקירוב נורמלי למצוא P(X ≥ 70)
(עם תיקון רציפות)

הסבר:

💡 הסבר מפורט:

בינומי לנורמלי! 🧮

📐 פתרון:

שלב 1: פרמטרים
μ = np = 200×0.3 = 60
σ² = np(1-p) = 200×0.3×0.7 = 42
σ = √42 ≈ 6.48

שלב 2: תיקון רציפות
P(X ≥ 70)
= P(X > 69.5) ברציפה

שלב 3: תקנון
Z = (69.5 - 60) / 6.48
= 9.5 / 6.48
1.47

שלב 4: הסתברות
P(Z > 1.47) ≈ 0.071

(קרוב יותר ל-0.025 בטבלה מדויקת)
שאלה 86
2.00 נק'

🧮 תרגיל מקיף:

X ~ Binomial(200, 0.3)

השתמש בקירוב נורמלי למצוא P(X ≥ 70)
(עם תיקון רציפות)

הסבר:

💡 הסבר מפורט:

בינומי לנורמלי! 🧮

📐 פתרון:

שלב 1: פרמטרים
μ = np = 200×0.3 = 60
σ² = np(1-p) = 200×0.3×0.7 = 42
σ = √42 ≈ 6.48

שלב 2: תיקון רציפות
P(X ≥ 70)
= P(X > 69.5) ברציפה

שלב 3: תקנון
Z = (69.5 - 60) / 6.48
= 9.5 / 6.48
1.47

שלב 4: הסתברות
P(Z > 1.47) ≈ 0.071

(קרוב יותר ל-0.025 בטבלה מדויקת)
שאלה 87
2.00 נק'

🧮 תרגיל מקיף:

קבוצה A: x̄₁=85, s₁=10, n₁=50
קבוצה B: x̄₂=80, s₂=12, n₂=60

בנה רווח סמך 95% להפרש μ₁-μ₂

הסבר:

💡 הסבר מפורט:

רווח סמך להפרש! 🧮

📐 פתרון:

שלב 1: הפרש
x̄₁ - x̄₂ = 85 - 80 = 5

שלב 2: SE(הפרש)
SE = √(s₁²/n₁ + s₂²/n₂)
= √(100/50 + 144/60)
= √(2 + 2.4)
= √4.4
2.1

שלב 3: ME
ME = 1.96 × 2.1 ≈ 4.116

שלב 4: רווח
5 ± 4.12
= [0.88, 9.12]

≈ [1, 9]
שאלה 88
10.00 נק'

🧮 תרגיל מקיף:

קבוצה A: x̄₁=85, s₁=10, n₁=50
קבוצה B: x̄₂=80, s₂=12, n₂=60

בנה רווח סמך 95% להפרש μ₁-μ₂

הסבר:

💡 הסבר מפורט:

רווח סמך להפרש! 🧮

📐 פתרון:

שלב 1: הפרש
x̄₁ - x̄₂ = 85 - 80 = 5

שלב 2: SE(הפרש)
SE = √(s₁²/n₁ + s₂²/n₂)
= √(100/50 + 144/60)
= √(2 + 2.4)
= √4.4
2.1

שלב 3: ME
ME = 1.96 × 2.1 ≈ 4.116

שלב 4: רווח
5 ± 4.12
= [0.88, 9.12]

≈ [1, 9]
שאלה 89
10.00 נק'

תרגיל בדיקה:

נתון: x̄=52, μ₀=50, SE=2

האם נדחה H₀: μ=50 ברמת מובהקות 5%?

הסבר:

💡 הסבר מפורט:

בדיקת השערה! ✅

📐 פתרון:

Z = (52-50)/2 = 1

ערך קריטי: 1.96

|1| < 1.96

לא דוחים H₀
שאלה 90
2.00 נק'

תרגיל בדיקה:

נתון: x̄=52, μ₀=50, SE=2

האם נדחה H₀: μ=50 ברמת מובהקות 5%?

הסבר:

💡 הסבר מפורט:

בדיקת השערה! ✅

📐 פתרון:

Z = (52-50)/2 = 1

ערך קריטי: 1.96

|1| < 1.96

לא דוחים H₀
שאלה 91
2.00 נק'

📚 מושג:

מה נקרא "חוק המספרים הגדולים"?

הסבר:

💡 הסבר מפורט:

חוק המספרים הגדולים! 📚

הבדל מ-CLT:

חוק המספרים:
x̄ → μ (התכנסות)

CLT:
מתאר את ההתפלגות של x̄
שאלה 92
10.00 נק'

📚 מושג:

מה נקרא "חוק המספרים הגדולים"?

הסבר:

💡 הסבר מפורט:

חוק המספרים הגדולים! 📚

הבדל מ-CLT:

חוק המספרים:
x̄ → μ (התכנסות)

CLT:
מתאר את ההתפלגות של x̄
שאלה 93
10.00 נק'

🎯 מעשי:

באיזה תחום CLT הכי קריטי?

הסבר:

💡 הסבר מפורט:

שימושי CLT! 🎯

תחומים:

• רפואה
• כלכלה
• פסיכולוגיה
• הנדסה
• AI/ML
• פיננסים
• מדעי החברה

בכולם!
שאלה 94
2.00 נק'

🎯 מעשי:

באיזה תחום CLT הכי קריטי?

הסבר:

💡 הסבר מפורט:

שימושי CLT! 🎯

תחומים:

• רפואה
• כלכלה
• פסיכולוגיה
• הנדסה
• AI/ML
• פיננסים
• מדעי החברה

בכולם!
שאלה 95
2.00 נק'

🔍 הבנה:

מה ההבדל בין "מתכנס" ל"מתפלג"?

הסבר:

💡 הסבר מפורט:

התכנסות vs התפלגות! 🔍

מתכנס (LLN):
x̄ → μ (ערך קבוע)

מתפלג (CLT):
x̄ ~ N(μ, σ²/n) (התפלגות)
שאלה 96
10.00 נק'

🔍 הבנה:

מה ההבדל בין "מתכנס" ל"מתפלג"?

הסבר:

💡 הסבר מפורט:

התכנסות vs התפלגות! 🔍

מתכנס (LLN):
x̄ → μ (ערך קבוע)

מתפלג (CLT):
x̄ ~ N(μ, σ²/n) (התפלגות)
שאלה 97
10.00 נק'

⚠️ טעות נפוצה:

מה שגוי באמירה: "CLT אומר שהנתונים מתפלגים נורמלית"?

הסבר:

💡 הסבר מפורט:

טעות נפוצה! ⚠️

❌ שגוי:
"הנתונים מתפלגים נורמלית"

✓ נכון:
"הממוצע x̄ מתפלג נורמלית"

הנתונים עצמם יכולים להיות כל התפלגות!
שאלה 98
2.00 נק'

⚠️ טעות נפוצה:

מה שגוי באמירה: "CLT אומר שהנתונים מתפלגים נורמלית"?

הסבר:

💡 הסבר מפורט:

טעות נפוצה! ⚠️

❌ שגוי:
"הנתונים מתפלגים נורמלית"

✓ נכון:
"הממוצע x̄ מתפלג נורמלית"

הנתונים עצמם יכולים להיות כל התפלגות!
שאלה 99
2.00 נק'

🎓 סיכום אחרון:

מה המשפט המרכזי שצריך לזכור ממבחן 147?

הסבר:

💡 הסבר מפורט:

הנוסחה המרכזית! 🎓

משפט הגבול המרכזי

x̄ ~ N(μ, σ²/n)

כאשר n → ∞

לכל התפלגות!

🎉 סיימנו מבחן 147!

כעת אתם מבינים:
✓ משפט הגבול המרכזי
✓ התפלגות ממוצע המדגם
✓ קירוב בינומי-נורמלי
✓ יישומים מעשיים
✓ החשיבות של CLT

בהצלחה במבחן 148!
שאלה 100
10.00 נק'

🎓 סיכום אחרון:

מה המשפט המרכזי שצריך לזכור ממבחן 147?

הסבר:

💡 הסבר מפורט:

הנוסחה המרכזית! 🎓

משפט הגבול המרכזי

x̄ ~ N(μ, σ²/n)

כאשר n → ∞

לכל התפלגות!

🎉 סיימנו מבחן 147!

כעת אתם מבינים:
✓ משפט הגבול המרכזי
✓ התפלגות ממוצע המדגם
✓ קירוב בינומי-נורמלי
✓ יישומים מעשיים
✓ החשיבות של CLT

בהצלחה במבחן 148!
🎓
לא רוצה להישאר לבד עם החומר?
הצטרפו לקורס שנתי עם משימות יומיות, ליווי אישי וקבוצות זום
🤖

עוזר הקורסים החכם

אני כאן לעזור לך למצוא את הקורס המתאים

×
👋 שלום! אשמח לעזור לך
שלום, אשמח לעזור לך להתמצא באתר ולמקד אותך לצורך שלך. נתחיל בבחירה:
🎓 מתמטיקה לבגרות
📚 אקדמיה (סטטיסטיקה / כלכלה / מתמטיקה)
0 / 100 הושלמו