Ceph, a soklábú fájlrendszer
avagy hogyan építsünk cloudhoz tárolórendszert
Kezdés:
Ez a tanfolyam már véget ért,
figyeld az új időpontokat!
Hossz:
32 óra
Az egyes alkalmak
Ár:
65 000 Ft+áfa
ingyenes!
Részvételi mód:
Visszanézhető videók
Ezen a linuxos képzésen a hallgatók megtanulják, hogyan építsenek nagyon nagy megbízhatóságú tárolót, amelyik nem omlik össze egy hibától. A modern számítástechnika manapság a felhő alapú számítástechnikáról szól. Az adatokat azonban a felhőben is tárolni kell, és az egyik, ha nem a legnagyobb kihívás, hogy megbízható, gyors, és sokoldalú háttértároló rendszert biztosítsunk. A Ceph erre egy jó megoldást kínál. A Ceph egy szabad szoftveres, ingyenes storage platform, mely képes objektumokat, blokk eszközöket - például virtuális gépek merevlemezeit - és fájlrendszert biztosítani. Mindezt teljesen hétköznapi hardveren, egy kereskedelmi rendszer árának töredékéért, és annál nagyobb megbízhatósággal.Ez egy kezdetektől teljesen katasztrófatűrőre tervezett rendszer, mely mentes az úgynevezett "single point of failure" hibáktól, amikor a rendszer egy elemének hibája is a teljes összeomlást okozhatja. Megbízhatóságára és méretezhetőségére is jellemző, hogy a világ legnagyobb tárhely szolgáltatói - például DreamHost - is használják, de ugyanilyen hatékony kis és közepes vállalkozások kiszolgálásánál is.
Nézd online!
Ezt a tanfolyamot kényelmesen, otthonról is követheted, a képzésrol készült felvételeket bármikor visszanézheted. Kérdés esetén beépített chat segítségével léphetsz kapcsolatba az oktatóval vagy más hallgatókkal. Ha ez a tanfolyam már véget ért, az elkészült videóanyagot Elofizetéssel megvásárolhatod!
Kinek ajánljuk?
Mindazoknak hasznos lehet a részvétel, akiket érdekel a felhő alapú számítástechnika, illetve szívesen megismerik egy rendundáns, kedvező árú tárolórendszer kiépítését és üzemeltetését. A részvétel azoknak is hasznos lesz, akik az OpenStack és más felhő alapú rendszer számára egy gyors, és megbízható tárolót szeretnének építeni.
Témakörök
1. Ceph felépítése, szerepek, alkotóelemek

Első alkalommal a hallgatók részletesen megismerik a Ceph felépítését, az alapfogalmakat. Megimserjük miaz a RADOS, RADOSGW, RBD, CephFS, OSD, MON, Pool, Placement groupok, SCRUM, CRUSH maps. Kiemelten fontos,hogy megértsük a Ceph alapvető fogalmait, felépítését, követelményeit, ugyanis ez az egész rendszer ésígy a tanfolyam alapja. Megismerjük az Object Store-ok és a blokk eszközök lehetőségeit. Áttekintjük, hogymilyen hálózati és hardver felépítés ajánlott, és szükséges egy Ceph cluster létrehozásához.

2. Ceph telepítése

A Ceph klaszter alkotóelemeinek Ubuntu 12.04-es rendszerre történő telepítését végezzük el, melynek végrehajtása utána rendszer készen áll a klaszter létrehozására.
A Ceph alkotóelemeinek - monitor, server nodeok telepítési lépései:
- Adminisztratív felhasználók létrehozása
- Ceph-deploy telepítése
- Admin node beállítások
- Server node beállítások

3. Ceph Storage Cluster beállítása

A Ceph által kínált, Amazon S3 és OpenStack kompatibils object storage létrehozását ismerjük meg.
- Merevlemez szükséges beállításai
- Fájlrendszer lehetőségek és kiválasztás (ext4, xfs, btrfs)
- ceph konfigurációs állomány megfelelő beállítása (monitor, OSD, RADOSGW szekciók)
- XFS fájlrendszerek létrehozása az OSD-ken
- Klaszter tagok azonosításának beállítása
- Monitoring beállítások
- Naplózási beállítások

4. Ceph Storage klaszter kezelése, haladó beállítások

A Ceph képes akár futásidőben változtatni a beállításokon, illetve több storage clustert is létrehozhatunk.
A különálló storage clusterek magas fokú izolációt biztosítanak, de körültekintően kell eljárni a létrehozásukkor.
Az alábbi műveleteket végezzük el ezen az alkalmon:
- Konfigurációs beállítások listázása
- Klaszter tulajdonságok listázása
- Második storage klaszter létrehozása

5. Hálózati beállítások

A storage cluster által szükséges, operációs rendszeren végrehajtandó hálózati beállításokat, és hálózatieszközök beállítási követelményeit tekintjük át:
- Hálózati felépítés
- IPTables szabályok beállítása az OSD, monitor és metadata server kommnuikációjának engedélyezése
- Cluster hálózat, és publikus hálózat különválasztása
- TCP beállítások hangolása
- Hálózati kártyák összefogása, jumbo framek használata

6. Storage cluster azonosítási rendszere

Áttekintjük, és beállítjuk a storage clusteren az opcionális azonosítást, áttekintjük a lehetőségek előnyeit és hátrányait.
- Azonosítás engedélyezése
- Azonosítás kiépítése
- Azonosítási kulcsok kezelése
- Cluster üzenetek aláírása, azonosítása
- Azonosítás lejárati idejének konfigurálása

7. Klaszter monitoring rendszer kiépítése

A biztonságos, megbízható klaszter egyik legfontosabb része a megfeleő felügyeleti és központi kezelő - monitoring - rendszer.Minden klaszter legalább egy monitorral - MON démon - rendelkezik, de lehetőségünk van ennek a megbízhatóságát isnövelni több monitoring démon rendszer kiépítésével.
- Monitoring rendszer felépítése
- Monitoring rendszer megtervezése: monitoring adatok diszkjeinek elhelyezése, tárolókapacitás megtervezése
- Map állományok
- Indulási és konzisztencia vizsgáló monitoring beállítása
- Monitor klaszter kiépítése
- Monitor adatok szinkronizációja
- OSD monitor beállítások

8. RADOS pool-ok kezelése (létrehozás, írás, olvasás, objektumok eltávolítása, bővítése)

Ezen alkalommal a RADOS objektum tárolók alapvető, és haladó kezelésével fogunk foglalkozni. Miként kezeljük, miként bővítsüka Pool-t, vagy éppen miként távolítsunk el egy OSD-t a rendszerből.

9. Virtuális gépek - KVM - futtatása RBD-ről (RADOS Block Device)

A Ceph képes nem csak fájlokat tárolni, és kiajánlani, hanem a tárolt objektumot blokk eszközként is kiadni és ígyvirtuális gépek számára mindig elérhetővé tenni. Lehetőségünk van direkt elérésre a libvirtd és QEMU réteg együttműködésénekkihasználásával, illetve kernel modulon keresztüli használatra is. Ezek beállítását tesszük meg, és elemezzük a viselkedésüket,hogy a megfelelő megoldást válasszuk ki.

10. Performancia növelése (naplózás, cachelés)

A tanfolyami napon a hallgatók a Linux és a hardver, valamint a Ceph démonjainak, valamint a Ceph kliens oldali alkalmazásainakfinomhangolásába nyernek betekintést. Áttekintjük a megfelelő hardver kiválasztást illetve gyorsítási opciókat - SSD-k bevonásaa rendszerbe, gyorsító kártyák használata stb. -, hogy felkészülten tudjuk bővíteni, illetve gyorsítani a rendszert, amennyibena költségvetésünk megengedi azt.

11. CephFS

Utolsó alkalommal a POSIX kompatiblis, elosztott fájlrendszert és használatát ismerjük meg. Ehhez telepíteni fogjuk, és beállítjuka szükséges Metadata Server komponenst (MDS), megvizsgáljuk a beállításait, hardver követelményeit, valamint általános hibakeresést isvégzünk egy ilyen kiépítésű rendszeren.

Technikai információk
Részletes technikai információkat csak a képzés hallgatói nézhetik meg bejelentkezés után!
Ceph, a soklábú fájlrendszer tanfolyami videók
Virtuális gépek importja, CEPH alapfogalmak
2013. november 18.
CEPH Pool, PG, OSD, MON, méretezés
2013. november 18.
Linux rendszer felkészítése, Ceph csomagok telepítése
2013. november 20.
Ceph konfigurációs állomány létrehozása, mkcephfs
2013. november 20.
ceph-deploy beállítása
2013. november 25.
ceph admin parancsok, pool létrehozása, listázás
2013. november 25.
OSD beállítások
2013. november 27.
OSD beállítások 2.
2013. november 27.
PG számítás, Erasure coding, rados benchmark
2013. december 04.
Journal méret számítás, optimalizálási lehetőségek
2013. december 04.
jumbo frame beállítás, public és cluster network konfig
2013. december 04.
RBD - blokk eszközök Ceph alatt
2013. december 11.
RBD - blokk eszközök Ceph alatt 2.
2013. december 11.
RadosGW telepítése
2014. január 06.
RadosGW felhasználók kezelése, openStack SWIFT elérés
2014. január 06.
CephX alapok, kulcsok generálása, listázása
2014. január 08.
CephX felhasználó hozzáadása, cephx bekapcsolás
2014. január 08.
CEphFS konfiguráció, indítás, mount
2014. január 13.
ceph-fuse, nfs-en keresztüli kiajánlás
2014. január 13.
CEph fordítás I.
2014. január 15.
Ceph fordítás II.
2014. január 15.
CephFS beüzemelés, BTRFS alapú RADOS klaszter telepítés
2014. január 15.
Sheepdog klaszter létrehozása
2014. január 20.
RBD cacheing
2014. január 20.