מבוא
מעטים מודעים לכך שהרעיון של מרכזי נתונים תת-מימיים מקורו במהלך ThinkWeek של מיקרוסופט ב-2014, סשן סיעור מוחות פנימי. הוא הוצע על ידי עובד בעל ניסיון בהפעלת צוללות של חיל הים. מיקרוסופט ערכה ניסויים ראשוניים, והטבלה מרכז נתונים מתחת למים למשך חמישה חודשים עם תוצאות מבטיחות.
לאחרונה, ב-2018, שלחה מיקרוסופט צוללת עמוסה בשרתי 864 ומסוגלת לאחסן 27.6 פטה-בייט של נתונים לתחתית איי אורקני, מצפון-מזרח לסקוטלנד. שנתיים לאחר מכן, ביוני 2020, מיקרוסופט הביאה אותו לחוף לצורך הערכה. התוצאות מראות שמרכז הנתונים התת-ימי מתפקד טוב יותר ממרכזי הנתונים המסורתיים בכל ההיבטים, ושיעור הכשלים במים הוא שמינית מזה ביבשה.
מדוע מיקרוסופט שמה את מרכז הנתונים שלה מתחת לים? האם לאחר הפיילוט, האם ניתן לקדם בניית מרכזי נתונים תת ימיים בקנה מידה גדול?

מדוע מיקרוסופט בוחרת במרכזי נתונים תת-מימיים
התשובה פשוטה: למקסם את המשאבים הזמינים. במקביל, הוא פותר חסרונות רבים של מרכזי נתונים יבשתיים.
ראשית, מרכזי נתונים תת-ימיים בטוחים ויציבים יותר: מרכזי נתונים עדינים ומלאים ברכיבים מתוחכמים ביותר שעלולים להינזק משינויי טמפרטורה, קורוזיה חמצן ואפילו התנגשויות בעת החלפת חלקים פגומים. אבל בסביבת ואקום שבה ניתן לשלוט בטמפרטורה, לחלץ חמצן ואדי מים, ולבודד הפרעות אנושיות, האבטחה והיציבות של מרכז הנתונים ישתפרו מאוד.
מתחת לים הוא ללא ספק מקור נתונים אידיאלי - לא רק מבודד מהחמצן היבשתי, אדי המים, ושם קץ להתערבות אנושית.
שנית, והכי חשוב, לשרתים מקוררים במי ים יש יתרון ייחודי, וקירור הוא הוצאה גדולה עבור מרכזי נתונים יבשתיים. לפי נתונים ציבוריים, 41% מעלות החשמל השנתית של מרכז נתונים משמשים לקירור, וצריכת החשמל השנתית של מרכזי נתונים ברחבי העולם מהווה כ-2% מסך החשמל בעולם. ביניהם, עלות צריכת האנרגיה מהווה 30% עד 50% מתעשיית ה-IT כולה.
למה הקירור כל כך יקר? למעשה, במרכזי נתונים יבשתיים יש בדרך כלל שתי דרכים לקרר נתונים, האחת היא להשתמש בקירור מכני, כלומר לקרר את השרת עם מערכת מיזוג כבדה, אבל שיטת הקירור הזו צריכה לצרוך הרבה חשמל בכל פעם. יום, והעלות הייתה גבוהה.

השני הוא לקרר את השרת על ידי אידוי אוויר ומים. השיטה המוכשרת הטבעית הזו היא הרבה יותר נמוכה בעלות מהקודמת, אבל יש לה גם חסרונות משלה: דרגת ההשלמה ואיכות הקירור נקבעות על פי טמפרטורת האוויר החיצונית ותנאי המים, ויכולת התמרון האנושית נמוכה מדי.
מי ים בעלי קיבולת חום גבוהה יותר יכולים לאגור עודפי חום שנוצר על ידי מרכז הנתונים: יש צורך רק במחליף חום כדי להעביר את החום של מרכז הנתונים למי הים שמסביב, כביכול, הוא שילוב של שתי שיטות קירור מסורתיות: יציב. ושימוש חופשי במשאבי טבע.
שלישית, צפיפות אוכלוסיית החוף גבוהה, העברת הנתונים מהירה ויעילות מחשוב הענן גבוהה יותר: על מנת לחסוך בעלויות קרקע ותפעול, מרכזי נתונים מסורתיים בוחרים בדרך כלל באזורים מרוחקים דל-אוכלוסיה, מה שמוביל ישירות להעברת נתונים אטית מדי וגם עיכוב רב. מרכזי נתונים תת-מימיים שונים:
כ-50 אחוז מאוכלוסיית העולם חיה בטווח של 150 קילומטרים מקו חוף. בניית מרכז הנתונים מתחת לים חוסכת עלויות והיא קרובה לאזורי מגורים, והורגת שתי ציפורים במכה אחת.
בנוסף, ישנם יתרונות רבים נוספים:
לדוגמה, אנו יכולים להשתמש באנרגיית הגאות והשפל של האוקיינוס כדי להשיג חשמל נייטרלי פחמן באוקיינוס; ניתן לחבר רוחב פס תת-ימי דרך צינורות כדי להאיץ את העברת הנתונים; ניתן לעקוף את הבירוקרטיה המסורתית בעת בניית מרכז נתונים תת-ימי: ניתן לבנות שרתים בממגורות אטומות למים על פסי ייצור ולשלוח החוצה לים באמצעות ספינת משא לצורך פריסה. כפי שאומרת מיקרוסופט, ניתן לפרוס את תרמילי השרת הללו בתוך 90 יום; ואילו לבניית מרכזי נתונים רדיקליים לוקח שנה עד שנתיים.
תיאורטית, למרכזי נתונים צוללים יש יתרונות רבים, אז כמה קשה להשיג את זה? -- למיקרוסופט יש את התשובה הראשונה.
פרויקט Natick של מיקרוסופט ובנייה בפועל
למעשה, כבר ב-2015 החלה מיקרוסופט לחקור את ההיתכנות של בניית מרכזי נתונים מתחת למים, ולאחר מכן השיקה את Project Natick.
בשלב הראשון של פרויקט Natick, בשנת 2015, צוות המחקר של מיקרוסופט ערך ניסוי של 105-יום כדי למקסם את ההגנה מפני דליפות, והבטיח שמרכז הנתונים הוצב במיכל עמיד למים. הניסוי הצליח: מיקרוסופט מצאה שניתן להבטיח את עמידות המים של מודול השירות במי ים.
אז בשלב השני, מיקרוסופט מנסה לדחוף את הניסוי קדימה ולהנחית את הפרויקט: "שלח את הנתונים לקרקעית האוקיינוס" כדי לראות אם ניתן לשמר את הנתונים במצב טוב לאחר מספר שנים. מיקרוסופט שמה מרכז נתונים במיכל פלדה אטום, מילאה אותו בחנקן, ולאחר מכן השתמשה בצוללת כדי להעביר את המכולה לים.
הניסוי נתמך על ידי המרכז האירופי לאנרגיה ימית (EMEC): EMEC לא רק סיפקה מומחיות בתמיכה באנרגיה מתחדשת, אלא גם פעלה כיועץ גיאוגרפי ברחבי אורקני - EMEC אפילו סיפקה את הכבל התת ימי שמחבר את מרכז הנתונים לחוף.
הצוללת הנושאת את השרת לים העמוק נקראת Leona Philpot, דמות מהמשחק Halo. הוא הפליג אל חשכת הים הצפוני ליד אורניק, סקוטלנד.
למה אורקני? מצד אחד, מכיוון שאורקני היא מרכז מרכזי לחקר אנרגיה מתחדשת, המרכז האירופי לאנרגיה ימית (EMEC) מתנסה כאן באנרגיית גאות ושפל וגלים כבר 14 שנים. מצד שני, לאורקני יש אקלים קר, מה שעוזר להפחית את עלויות הקירור למרכזי נתונים.
מיקרוסופט הציבה את מרכז הנתונים במרחק של פחות מקילומטר מקרקעית הים ופרסה חיישנים סביבתיים בתוך תאים לבנים בלחץ גבוה כדי לנטר את מצבו בזמן אמת. מרכז הנתונים והאוקיינוס הם "חלקים": צורכי החשמל שלהם נלכדים באמצעות כבלים תת-ימיים, והנתונים מועברים בקלות לעולם הרחב מול החוף. בשנת 2018 הושלם מרכז הנתונים של Microsoft North Sea: סך של 864 שרתים, 27.6PB של זיכרון, על מנת לבחון ביצועים, צלילה עמוקה למשך שנתיים.
למעשה, החוקרים מודאגים ביותר מנזק למרכז הנתונים: ברגע שהמחשבים במרכז הנתונים התת-ימי נכשלים, לא ניתן לתקן אותם. למרבה המזל, זה הסתדר היטב. עד אוגוסט 2020, כל המחשבים ניצלו - רק שמונה מתוך יותר מ-800 נכשלו, שיעור תקלות נמוך יותר מאשר במרכזי נתונים יבשתיים.

איך להשיג הפסד נמוך? חוקרי הפרויקט משערים שמצד אחד מזג האוויר הקר פעל כחיץ; מצד שני, חנקן ממלא גם תפקיד מגן. בקיצור, בדיקה בקנה מידה קטן זה מאמתת עוד יותר את האפשרות והערך של אחסון תת-מימי. חוקרי הפרויקט אמרו שלפרויקט יש לא רק שיעור כשל נמוך, אלא שכל אספקת החשמל של מרכז הנתונים מגיעה מאנרגיית רוח ושמש, תוך שימוש מלא במשאבי הטבע.
בנוסף, בהתאם לתיאוריה, עלות הניהול, עלות הבנייה וההפסד לנוכח אסונות טבע ושאר מצבי חירום של מרכז הנתונים הצוללת נמוכים כולם מזו של מרכז הנתונים היבשתי.
עם זאת, זהו רק ניצחון זמני. הנפח של יותר מ-800 שרתים רחוק מזה של מרכזי נתונים יבשתיים - הרי במרכזי נתונים יבשתיים יש עשרות אלפי שרתים. במובן מסוים, מרכז הנתונים הזה הוא יותר ניסיוני מאשר מעשי, וניתן לומר שהוא פרויקט פיילוט קטן עבור מיקרוסופט. מנכ"לית מיקרוסופט, Satya Nadella, אמרה שמרכז הנתונים התת-ימי ישכפל את Project Natick ברחבי העולם.
אתגרים ותחזית עתידית של מרכזי נתונים תת-מימיים
אם מיקרוסופט רוצה לקדם בהצלחה את מרכז הנתונים התת-ימי, היא לא יכולה בלי לשבור את הבעיה הקשה בשלב זה:
ראשית, הניסוי של מיקרוסופט נתקל בספקנות סביבתית רבה. איאן ביטרלין, פרופסור לחקר נתונים, מאמין שהחום שנוצר על ידי מרכזי נתונים יכול להשפיע על טמפרטורות מי האוקיינוס. צוות מיקרוסופט צריך לפתור כיצד להוכיח שמרכז הנתונים התת-ימי לא יגרום לזיהום גדול יותר לסביבה הימית וכיצד להימנע מסיכוני זיהום אפשריים.
שנית, הנזק של 8 שרתים ביותר מ-800 שרתים לא נראה כמספר גדול, אבל ברגע שמרכז הנתונים הצוללת יקודם, ההפסד צפוי להיות מאות אלפי יחידות, ואז הצורך לבנות את התת-מימי המקביל עמדת שירות תחזוקה, כמו גם פתרונות מלאים לתחזוקת ציוד.
שלישית, כפי שמציין איאן ביטלין, החוף הוא לא המקום הטוב ביותר לבנות מרכז נתונים - למרות שהתנועה בחוף גבוהה בהרבה מאשר במדבר, הוא עדיין לא נרחב כמו מרכז הנתונים בעיר הגדולה. .
כמובן, פרויקט Natick אינו רק דחיפה לבניית מרכזי נתונים תת-ימיים. גם אם מרכזי הנתונים התת-ימיים אינם מותאמים, הניסויים היצירתיים הללו מציעים שיעורים חשובים לתעשיית מרכזי הנתונים.
לדוגמה, בעת בניית מרכז נתונים תת-מימי באיי אורניק, הצוות קיבל השראה מהחשמל שסיפקה אנרגיית הרוח והשמש - החוקרים אמרו שבעתיד הם יכולים לשקול לפרוס מרכזי נתונים תת-מימיים עם חוות רוח ימיות, השאלת רוח אנרגיה כדי להפעיל את מרכז הנתונים, להרוג שתי ציפורים במכה, או אפילו לקשור קווי חשמל יבשתיים לכבלים האופטיים הדרושים להעברת נתונים.
כתוצאה מכך, מיקרוסופט מחפשת דרכים לשכפל את היתרונות של המודל התת-מימי למרכזי נתונים יבשתיים - כמו בלאי נמוך של שרתים ואבטחה גבוהה.

סיכום
ל-Project Natick יש פוטנציאל לחולל מהפכה בפריסת מרכז הנתונים, לספק גמישות, בנייה מהירה ושינוי קנה מידה יעיל. בעוד שמיקרוסופט צופה לשכפל את ההצלחה של Project Natick ברחבי העולם, האתגרים כוללים דאגות סביבתיות והצורך בתחנות תחזוקה תת-מימיות במקרה של פריסה נרחבת. הניסויים של מיקרוסופט לא רק דוחפים את גבולות הטכנולוגיה אלא גם מציעים תובנות חשובות לכל התעשייה. הגישה החדשנית של מיקרוסופט, בין אם היא מצליחה ובין אם לא, מסמלת צעד משמעותי קדימה בתעשיית מרכזי הנתונים.

