hawthorne napisał: Do celów uczenia się wystarczy 4-węzłowy klaster Hadoop, aby rozpocząć pisanie zadań MapReduce lub eksplorację gałęzi, świń lub HBase. Patrzę z perspektywy branży, w której jesteśmy zainteresowani zebraniem ogromnej ilości danych. Aby zobaczyć możliwości Hadoop w tym prawdziwym problemie, potrzebna będzie spora klaster. 500 węzłów jest obliczanych na podstawie ilości danych, które próbujesz rozbić, oraz czasu potrzebnego na zwrócenie wyników. Klastry Hadoop nie są tak kosztowne. komputery stacjonarne są wystarczające do działania jako węzły obliczeniowe (chociaż branża preferuje węzły klasy serwerowej). Głównym wyzwaniem są nadal nieruchomości. Gdzie zamierzasz umieścić swój klaster? Jak zapewnić skuteczne chłodzenie itp Masz rację co do wielkości, pod warunkiem, że masz na myśli rozwiązanie problemu przemysłowego, to powiem dowolny rozmiar, o ile możesz uzasadnić moc obliczeniową klastra wielkością problemu, który próbujesz rozwiązać. Ale jeśli mnie zapytasz, nie przejmuję się zbytnio nieruchomościami, aby wdrożyć klaster hadoop od 500 do 1000 węzłów. Po pierwsze, bądźmy realistami. Jeśli płacisz dobre pieniądze, aby rozwiązać problem przemysłowy, który będzie wymagał 500 węzłów, nie będziesz używać pulpitu. Właśnie dlatego tworzone są systemy typu blade, dlatego tworzone są serwery rackowe. Singapur to kropka na mapie globalnej, a nie kropka na kawałku papieru formatu A4. Centra danych, na które natknąłem się w samym parku naukowym Cintech 1, są w stanie pomieścić ponad 500 węzłów. Wyzwanie jest w rzeczywistości związane z infrastrukturą sieciową, posiadanie 500 węzłów będzie bardzo wymagające dla infrastruktury sieciowej. Mówi się, że nauka o rakietach nie jest też gospodarzem dla 500 węzłów. Myślę, że musimy tu być realistami. To, że Hadoop może być hostowany na sprzęcie towarowym, nie oznacza, że tak musi być. Przy 500 węzłach wątpię, czy Twój sprzęt towarowy da ci najlepszy huk za dolara. Będziesz musiał zmierzyć się z wymianą sprzętu i wieloma problemami operacyjnymi, starając się utrzymać 500 węzłów w doskonałym stanie. Musisz mieć sprzęt monitorujący, taki jak HP Lightsout, Dell iDRAC itp., Aby ułatwić monitorowanie i zdalne zarządzanie. Jeśli mam poradzić sobie z 500 układami fizycznymi, nie ma mowy, żebym użył obudowy typu desktop / cokół, marnując miejsce. Wątpię, czy użyję twardego dysku wdrożonego na każdym serwerze, marnując czas na problemy operacyjne. Wolę kilka dużych sieci SAN z tymi wszystkimi bezdyskowymi serwerami połączonymi za pośrednictwem Infiniband, sieci 10 Gbs lub światłowodów. W ten sposób mogę zrobić miejsce dla serwerów tylko 1U. Wystarczy hostować nieco więcej niż 10 x szafy 42U, aby mieć 500 fizycznych węzłów. W rzeczywistości, jeśli zamierzam używać serwerów typu blade, mogę obsługiwać jeszcze większą gęstość. Korzystając z serwerów kasetowych IBM, które można znaleźć pod adresem http://www-03.ibm.com/systems/bladec...dware/chassis/, potrzebuję tylko szafy 10x 42U do hostowania 560 węzłów fizycznych w szafach 10x 42U z odstępami 5U pomiędzy nimi gniazdo w KVM, przełączniki i okablowanie w każdej szafie. Ale oczywiście wiem, że serwery typu blade są naprawdę szkodliwe dla centrum danych bez odpowiedniego systemu chłodzenia. Pamiętam, że wcześniej odwiedzałem pokojowe centrum danych w Internecie, jest bardzo zimno, więc tak naprawdę nie martwię się o systemy chłodzenia. Skuteczne chłodzenie dla 500 węzłów nie stanowi przełomu. Jeśli Amazon może obsługiwać AWS w Singapurze, 500 węzłów mieści się w limitach. W rzeczywistości, jeśli głównym celem jest rozwiązanie problemu, zamiast próbować dowiedzieć się, jak duży klaster można zbudować, wtedy sensowne jest używanie dobrych maszyn o dobrych specyfikacjach do uruchamiania klastra.
POMOC: Hadoop - DUŻE dane
« Next Oldest | Next Newest »
Messages In This Thread
POMOC: Hadoop - DUŻE dane - by priyapatils84 - 12 Mar 2020, 06:06 PM
RE: POMOC: Hadoop - DUŻE dane - by anumolrafaanumol - 12 Mar 2020, 06:09 PM
RE: POMOC: Hadoop - DUŻE dane - by mvmiguel15 - 12 Mar 2020, 06:11 PM
RE: POMOC: Hadoop - DUŻE dane - by nmilano - 12 Mar 2020, 06:14 PM
RE: POMOC: Hadoop - DUŻE dane - by farmertx - 12 Mar 2020, 06:17 PM
RE: POMOC: Hadoop - DUŻE dane - by celinefolliet - 12 Mar 2020, 06:20 PM
RE: POMOC: Hadoop - DUŻE dane - by mvmiguel15 - 12 Mar 2020, 06:23 PM
RE: POMOC: Hadoop - DUŻE dane - by jeremyalittle - 12 Mar 2020, 06:26 PM
RE: POMOC: Hadoop - DUŻE dane - by valasjak - 12 Mar 2020, 06:29 PM
RE: POMOC: Hadoop - DUŻE dane - by gms1067 - 12 Mar 2020, 06:32 PM
RE: POMOC: Hadoop - DUŻE dane - by benitacandradewi - 12 Mar 2020, 06:35 PM
RE: POMOC: Hadoop - DUŻE dane - by saramitra - 12 Mar 2020, 06:38 PM
RE: POMOC: Hadoop - DUŻE dane - by massive.johnson - 12 Mar 2020, 06:41 PM
RE: POMOC: Hadoop - DUŻE dane - by jester24zyx - 12 Mar 2020, 06:44 PM
RE: POMOC: Hadoop - DUŻE dane - by valasjak - 12 Mar 2020, 06:48 PM
Users browsing this thread: 2 Guest(s)