Rendszergazda

Fórumok

Az Attadev Digital Kft. rendszergazdát keres. A munkavégzés helye Budapest, a munka 80%-ban külföldi, multinacionális cég kutatás-fejlesztési részlegénél rendszertervezés, üzemeltetés, 20%-ban saját illetve hazai ügyfelek rendszereinek üzemeltetése.

Végzettség, elvárások

  • elvárt nyelvtudás: erős szakmai angol, illetve írásbeli kommunikáció szintén angolul
  • 3+ év tapasztalat
  • Linux üzemeltetési ismeretek
  • OpenStack VAGY Ceph üzemeltetési tapasztalat
  • Python/Ruby scriptelés
  • valamelyik konfiguráció-menedzsment eszköz ismerete (ansible/chef/puppet/salt)
  • virtualizáció terén szerzett tapasztalat VMware/KVM platformon
  • stabil hálózati ismeretek (nem kell CCIE szint, viszont tudd, hogy mi az a VLAN, MTU, bonding (LACP/MLAG/VPC))

Előny:

  • folyékony szóbeli kommunikáció angolul
  • OpenStack
  • Ceph
  • Docker
  • Cloudera/IBM BigInsights ismeretek (HDFS, Hadoop, MR, Spark, HBase foleg)
  • log-menedzsment (példaul: ELK stack vagy Splunk vagy graylog)
  • MaaS, juju

Amit kínálunk:

  • munkavégzés helye: Budapest, Blaha Lujza térhez közel, egy kultúrált irodaházban
  • szokásos dolgok, kávé, néhány féle üdítő ingyen elérhető az irodában, ha kéred, akkor a munkavégzéshez számítógép, monitor, stb.
  • a kezdeti időszak után heti néhány nap távmunka megoldható, ha igény jelentkezik erre
  • nem droidként kell egy meglévő rendszert vinni, hanem a közös tapasztalatok alapján folyamatosan van lehetőseg változtatni mindenen, nincs Change Management Board es nem “kuss a neved”, a csapat egyutt dönt minden kérdésben, aminek Te is tagja leszel

Kicsit kifejtve: Az előny kategóriából nem gond ha nem használtad még egyiket sem, de nagyon örülnénk, ha mindegyikről hallottál volna már. Nem droidokat keresünk, hanem embereket, akiket érdekel és szeretik azt, ami a munkájuk. Ami talán a legfontosabb, az a jó problémamegoldó készség. Ne ess kétségbe, ha valami nem működik elsőre, vagy tizedszerre, hanem keresd meg rá a megoldást.

Amit nem kell csinálnod: száz számra apache/nginx + php kombókat telepíteni, üzemeltetni; egész nap ügyfelekkel beszélgetni

Amit kell csinálnod: önállóan munkát végezni, _gondolkodni_, problémát megoldani; dokumentálni (nem lesz több, mint a munkaidőd 5-10%-a)

Kezdés: akár holnap:)

Az érdeklődők életrajzát a következő email címre várjuk: hr@attadev.com
A levél tartalmazza pár szóban, hogy milyen dolgok foglalkoztatnak mostanában (szakmailag), miért gondolod, hogy ez lenne a neked való munka, és egy nettó fizetési igényt.

(A hirdetés a HUP-Profession szabadkártya felhasználásával került kihelyezésre)

Hozzászólások

Nem értek valamit:

"Végzettség, elvárások: OpenStack VAGY Ceph üzemeltetési tapasztalat
Előny: OpenStack, Ceph
Az előny kategóriából nem gond ha nem használtad még egyiket sem"

Vagy az üzemeltetés!=használás a kulcs?

Tök szuper, közvetlen, fiatalos hirdetés meg minden...
De.
Tök kivagyok, amikor a szerveres/szoftveres dolgokat összemossák a hálózatos munkakörökkel.
Fel kéne fogni, hogy ez egy külön szakma, NEM LEHET JÓL CSINÁLNI MINDKETTŐT EGYSZERRE!!!
Ha CCIE szintű/megközelítő szintű tudást akartok, akkor tessék erre egy külön pozíciót nyitni és
igen, nem fogjátok megúszni bruttó 1 millió alatt. Csak a hálózati részt. Igen.
Ma még itthon is nem a CCIE keres állást, hanem állás keres CCIE-t.
Ha valaki erre a hirdetésre azt mondja, hogy alkalmas, az hazudik. Ha nem, akkor nincs pénzetek kifizetni.

Millio egyeb dolgot jelenthet, valoszinuleg jelent is.
Arbevetel: ha kulfoldi ceguk is van (kulfoldre dolgoznak, ott jobb az adozas, szoval miert ne), akkor az arbevetelben az csoppet szamit.
Az alkalmazottak szamaban pedig nem szerepelnek a szamlas egyenek. Eleve a honlapjukon 4 embert mutogatnak.

Arbevetel: ha kulfoldi ceguk is van (kulfoldre dolgoznak, ott jobb az adozas, szoval miert ne)

Azért ez nem feltétlen úgy van, ahogy gondolod. Ha külföldről származó bevételed van (még akkor is, ha euróban vagy bármi más külföldi pénznemben), az is bevétel, azután is fizetned kell majd társasági adót (meg egyebet). Ha Magyarországon vagy bejelentve, a magyar törvények szerint adózol.
Amit esetleg spórolhatsz, az az ÁFA (export fő szabály szerint ÁFA-mentes) - amit igazából nem is spórolsz, mert ugye azt a vevő fizeti, rajtad csak átfolyik állambácsi felé :)

Itt relevánsabb adatokat kaphatsz a cég működéséről. Megkeresed a céget, első körben megnézhetsz egy eredménykimutatást (2014-es évről, nyilván a 2015-ös még nincs meg).
Röviden összefoglalva:

  • 31M bevétel (nettó)
  • 24M anyagjellegű ráfordítás (új eszközök, rezsi, stb.)
  • személyi jellegű ráfordítás kb. 6M (bruttó bér és járulékai, nagyon nem tűnik soknak, gondolom inkább az anyagjellegűben vannak számlás munkások, márcsak azért is, mert a mérlegben eszközök (befektetett ill. forgó) csak 9,5M értékben vannak, ami a 24M-hez képest elég kevés, feltételezve, hogy nem kereskedelemmel foglalkozik a cég)
  • adózás előtti eredmény kb. 1M (nagyon leegyszerűsítve bevétel-kiadás)

A "Kiegészítő melléklet"-ben megláthatod, milyen eszközeik vannak, meg egy kis mesét is olvashatsz.

Hirtelenjében pár perc alatt ennyit bírtam összeszedni és "elemezni". Ha valami még érdekel konkrétan, kérdezz :)

Olvasd el megegyszer figyelmesen a kiirast szerintem.
Nem ismerem a konkret poziciot se a ceget, de vegig tudtam olvasni, hogy alap halozati ismereteket varnak, nem ccie szintet. De szukseges alap dolgokkal tisztaban legy, amiket fel is sorolnak emlites szintjen es amibol lejon, hogy az kell oprendszer oldalrol be tudd allitani, mert erted mi kell ha pl. azt mondja a halozatos kollega hogy vpc-t konfiguralt.
Kiiras alapjan ez szerintem teljesen rendben van es nem irrevelans igeny, attol hogy szamodra lehet ismeretlen vagy csak gondolkodas nelkul nekieestel, hogy huu mi mindent varnak es olcson (holott fizetesi kategoriarol nem is esett szo a kiirasban).

Konkrétan össze kell kötni és szétválasztás helyett egyszerre kell kezelni.

Akinek egy vpc vagy mlag megfekszi a gyomrát a hálózatnál annál kétlem, hogy os oldalon képes lenne valami komplexebb rendszerbe történő integráció végrehajtására vagy tervezésére.

Az hogy egy kézben van minden nagyságrendbeli időmegtakarítást eredményezhet és ez a munkaerőpiacon is megjelenik, pl töméntelen devops igény, mert a másikra mutogatás nagyon sokba kerül.

Azert nem kell ennyire mellre szivni, ez most mar mindennapi hirdetes/elvaras majdnem midenhol. :)
Sajna a komoly halozati tudas nelkul nem lehet labdaba rugni. (vagyis lehet, de ott nem Cloud van)

A VMware es az osszes tobbi Cloud rendszer hasznalja ezeket a technologiakat.
Regen meg eleg gaz volt ezeket "hazilag" elsajatitani, mert nem volt GNS meg Cisco vCloud, meg egy komolyabb switch egy jo auto ara volt.
De mivel ma mar ez 3 perc alatt elerheto, igy csak energia es kedv kerdese szerintem.
Nem kulonben a Cisco dokumentacio, ami 100%-ban fent van a neten.

ez igaz hogy fent van a neten, de élni is kell. Napi 10 óra munka és 1,5 - 2 óra tanulás után nem sok kedve van az embernek még Cisco dolgokkal játszani.
igaz alszom is és van családom. melyiket dobjam?...

az van h 1szerűen túl sok minden van. 1-2 év alatt nem tudod összeszedni a tudást.
--
A legértékesebb idő a pillanat amelyben élsz.
https://sites.google.com/site/jupiter2005ster/

Ertem mire gondolsz, nalam is ez jatszik. Csalad, gyerekek, napi 4 ora "mokas" utazas.
En amugy most nem panaszkodom, mert legalabb nalunk nincs ticketing rendszer, ahol az ugyfelek nyivakolnak. Ha megy minden, akkor mindenki happy.(igy lehet tanulni/fejlodni/fejleszteni) :)

Amugy 1-2 ev alatt egy eros alap Cisco tudast ossze lehet "barkacsolni" szerintem.
Persze ez is fugg a napi rafordithato idotol, meg hogy mihez fersz hozza.
Nyilvan kiprobalni es megtanulni mindent, majdnem lehetetlen, mert ahhoz tul szerteagazo.

Majd számoljatok be, hogy találtok-e Ceph/Openstackhez értő embert. Én úgy látom, hogy most esélytelen, mert nagyon nagy hiány van. Max olyat, akit érdekel az OpenSTACK, és kitréningezitek házon belül.

azert biztos lehet otthon is talalni mar jo szakembert ezekhez, hiszen pont a WD40-sufnituning-szigszalag-"mindegycsakmukodjon" hozaallas az, ahova azt mondjak az emberek, hogy 0 Ft-ot akarunk kolteni, ugyhogy lesz KVM a VMware helyett, nem fogunk venni sokpenzert storaget, jo a 2.5"-inches WD Greenekbol a ceph, csak mukodjon:)

(es en lennek az utolso ember szerintem a HUP-on, aki azt mondana, hogy a Ceph rossz, hiszen foallasban ezt viszem, viszont 0 budget mellett az ingyenesseg a legfobb elonyuk)

Az elozo helyen ahol meloztam, ott az egyik devop "gyerek" mar 3.5 eve nyomja az openstack, KVM es egyebb cuccok integralasat es csak a szoporolleren van szerencsetlen.
Ott O'' a legtobbet ero ember es pont a VMware "draga" liszenszelesi feltetelei miatt dontottek az ingyenes megoldas(ok) mellett, hogy majd O'' felpakolja es minden facca lesz.
Ha csak azt nezem, hogy O'' mennyit keres, akkor azt kell hogy mondjam, hogy nem volt jo management dontes ezzel szivni ennyit.
Ugyan a full VMware vCloud nem tudom, hogy mennyiben faj(VSAN $20k korul mozog es az egy eleg komoly cucc), de az biztos hogy a 38k/ev fizuja 3.5* nem lett volna annyi mint a VMware liszensz azt gondolom...

Mi is "reszelgettuk a Corosync-Pacemaker parost a MySQL szerverhez es mukodott is, de igazandibol mukodo kesz megoldas kellett failover clusterre. (Mar van egy "jo" kis orokolt MMM-MySQL cluster eleg azzal szivni neha)
Igy lett a VMware SBS verzio. Amugy pont mult heten szalt el az egyik node es konkretan csak 1 geprol jott riasztasi uzenet, mert az osszes tobbi, ami a halott gepen volt virtualis gepek ujraindultak a masik node-on.
Mondjuk azt hozza kell tenni, hogy a VMware is pont ezeken a technologiakon uzemel, csak ott a csapat ezeket mar osszerakta rendesen.
Persze ott is van nem egy es ketto kisebb nagyobb bug, de meg mindig szerintem ez a leg kezenfekvobb megoldas, ha stabil rendszert akarsz, fejfajas es szoporoller nelkul.

Én az elmúlt pár hónapban 8-10 bugot jelentettem, vagy épp megtaláltam, hogy más is jelentette, egyhez még patchet is küldtem. Kíváncsi leszek élesben mi jön még.
Azt hogy milyen hülyeségek vannak benne néha, már egy legyintéssel elintézem (pl. 4 komponensben ugyanannak a dolognak a bekonfigurálása 4 teljesen különböző módon történik).
Összerakáshoz van már fasza megoldás szerencsére, azzal már nem kell tökölni.

Itt azon megy a vita, hogy az RFC7230-at be kell-e tartani (bár nagyon nem zavar senkit, hogy nem, végül is engem se, csak az install után a teszt mindig FAILED lesz):
https://bugs.launchpad.net/swift/+bug/1537811

Neutronnal ezeket bármikor reprodukálom:
https://bugs.launchpad.net/neutron/+bug/1453350
https://bugs.launchpad.net/neutron/+bug/1523780

Egy pár TLS/SSL probléma, amik miatt kicsit bajos bevezetni a https-t, pedig nem ártana:

https://bugs.launchpad.net/cinder/+bug/1537783 (patchem is van hozzá, de ahogy nézem, talán a jövő évtizedben mergelik is :)
https://bugs.launchpad.net/trove/+bug/1539182
https://bugs.launchpad.net/trove/+bug/1535895
https://bugs.launchpad.net/sahara/+bug/1539498

Meg volt már, amiket lezártak szerencsére, és még javították is, ez elég durva volt:
https://bugs.launchpad.net/nova/liberty/+bug/1517926

Itt is jó, nincsenek titkok - még :)
Sahara az csak úgy fel van téve, senki nem használja most, nagyon nem is tudok róla sokat mondani.
Igen, ha kell cafile, akkor a cinder köhög a quota kezelésnél. De azért nem egy nagy patch, ami megoldja, hogy menjen úgy, mit az összes többi része az OS-nek.

Ja, még ez is egy jó bug, csak nem igazán javítják:
https://bugs.launchpad.net/oslo.messaging/+bug/1478135

en nem sokat saharaztam, azon kivul, hogy megprobaltam felrakni. a fo problemam az, hogy egyreszt a horizon nem ment (folyton hianyolt egy csomo saharas fajlt), masreszt nem igazan lattam hozza up-to-date imageket.

most konkretan megy nalatok a sahara annyira, hogy el tudsz inditani egy 10 gepes spark clustert, vagy egy 5 gepes HDFS MRes disztribet? ha igen, honnan szeded az alap imageket?

Mondom, azzal még semmi. Elég volt a Trove-hoz megcsinálni :)
Viszont én azt néztem, hogy van benne egy csomó plugin "kész" megoldásokhoz: Cloudera, Hortonworks, stb., ezek vajon nem töltenek le imidzset?

Szerk.: ja nem, az image feltöltésénél lehet hozzá plugint választani.

Ez tetszett! Otthon minden jo rendszergazda tud legalabb gazzal is hegeszteni, de minimum elvaras a villannyal. :)

Amugy mi is birkoztunk egy darabig a "hazi" barkacs storage rendszerekkel, amikor kitalaltuk hogy minden virtualis lesz mostantol.
En is belefutottam a ceph-be, de nem lett telepitve. Nekunk inkabb a 100%-os failover kellett(nem a billion iops) es igy dontottunk a synology-ha mellett. £800 egy node, amibol ugye "csak" ketto kell es tok jol mukszik.

Eleg sokaig teszteltuk a NAS4Free-t, amiben faszan integralva van a FreBSD-s HAST szerviz, de sajna nem volt nyero es neha az is elhasalt.(vegeredmeny elerhetetlen vbox) A GlusterFS bazi stabil, de sajna nem nyero nagy file-okhoz, igy az sem lehetett. DRBD szinten zenesz, ha "csunyan" elhal mindket node, akkor johet a hazi barkacs visszaallitas. (ilyenkor szinten nem elerhetoek a gepek)

Sajna mivel ezek mind-mind neha kivannak kezi beavatkozast, igy inkabb a Synology storage-ot hasznaljuk. (1.5 ev alatt 1x volt failover a slave node-ra)

"Nekunk inkabb a 100%-os failover kellett(nem a billion iops) es igy dontottunk a synology-ha mellett"

dafuq did i just see :D, pont a ceph szól a 100% failoverről, synologyről tudnék mesélni, csak félek felmegy a vérnyomásom estére :)

---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"

Epp buliban vagyok a SYnology supporttal.

- Baj van.
- S: Toltsd fel logokat egy ftp szerverre, itt vannak az adatok: kozos login/pw, mindenki lat mindent, en is a tobbiek cuccait.

Kovetkezo lepes:

- S: Adj full admin hozzaferest a berendezesedhez, portforward legyen beallitva, ssh legyen bekapcsolva, a cimet, es a jelszot emailben kerem

Mindezt Azsiabol ugy, hogy minden masodik nap valaszol.
Kollega az USA-ban megelegelte, felhivja oket.

- kollega: ez a case number, zarjuk mar rovidre
- S: Ez egy azsiaban nyitott ticket, nem ferek hozza

A failoverbe én is belefutottam egy örökölt környezetben még régebben, annyi extra ajándékkal, hogy read-only lett a slave miután átállt...

---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"

Sajnos nekem az osszes Debian boxon a file rendszer read-only lett, miutan atallt a slave-re.
Ez is epp eleg gaz volt, mert lepkedhettem be az osszes gepbe es volt ahol sikerult visszamountolni a gepet, de volt ahol reboot jatszott.

Hiaba ahol network storage van ott mindig is lesz hiba, ha akarjuk ha nem.
Amugy ha jol emlekszem a Synology support azt mondta, hogy valoszinuleg a disk-ek razkodasa miatt volt az atallas.
Na persze, pont hogy a WD-Red NAS disk van az osszes storage-ban, ami kifejezetten erre van kihegyezve, hogy 24/7 NAS.
Valoszinu ez az egyik univerzalis valasz, ha nincs meg a hiba forrasa. :)

Igazandibol olyan megoldas kellett akkor, ami mukszik es nem kell hackelni hetekig honapokig.
Abban az idoben a ceph biza meg dev modban volt.
Nem hinnem, hogy barki rabizna egy 50+ szerveres rendszert, egy beta storage-ra, bar lehet hogy en tevedek.

Ne erts felre, nem akarok senkit meggyozni, foleg itt a HUP-on, ahol mindenki polihisztor. :) (en is)
Apropo, polihisztor, errol a regi fonokom jut eszembe, aki mindig azt mondta hogy: "Mindenki a sajat szemetdombjan kapirgaszik, mert hogy azt ismeri a legjobban es azt tartja a legjobbnak" Ezzel en is igy vagyok. :)

Értem, abszolút ebben egyetértünk.
Én csak arra akartam rámutatni, hogy ha megbízható storageot akar valaki még emészthető áron, akkor a ceph egy jó alternatíva, tény nem árt mögé a 10G link :)
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"

Most neztem a release verziokat, azt hiszem hogy eljott az ideje, hogy kicsit reszelgessem en is ezt a cuccost.
A migracionk lassan veget er es tobb ido lesz ilyenekre is.

Oket ismered? http://www.s3.co.uk/
SSD storage megoldasokat gyartanak SuperMicro-s HW-n.
Egy ilyen 3 node-os cuccot akartak nekunk eladni potom £45K.-ert.

Nem hinnem hogy lattak a vSAN arat a VMNware-tol, meg azt hogy mit tud ennyiert.
Merthogy ott egybol megvan a storage is + a failover + fault tolerance plussz ennyibol meg egy jopar HW node is kijon.
Mondjuk tesztelni nem tudtuk a "csoda" cuccukat, mert nem sikerult elerni addig az ugyel, az araik miatt.

a vSAN listaara 2495$/socket, szoval 4990/gep (hiszen dual socketet fogsz rakni HCI-ba), 3 gepre az 15k + meg kell venned a 3 eves SnS-t hozza, ami ~11200, szoval 3 gepre csak a VMware ~26k, de akkor ez a 3 geped van, aztan kesz. vSAN-nal azt is licenszelni kell, ami hasznalja, tehat a sima compute nodejaidat, es itt kezdodik a roller...

Én azt tanácsolom mindenkinek, aki úgy érzi, hogy az Openstack/Ceph kivételével a többi pontban megfelelőnek tartja magát, és hajlandó komoly energiákat belefektetni, hogy pótolja ezt a hiányosságát, az küldje el nyugodtan az életrajzát. Egy beszélgetést megér a dolog, és egyelőre még nem kell komoly konkurenciával számolnia:)
Nem szeretnénk több hónaposra elhúzni a felvételiztetési folyamatot ha nem muszáj, így aki előbb jelentkezik, az némi előnnyel indul (nem a minőség rovására, de ha találunk megfelelő embert, akkor nem fogjuk hetekig váratni csak azért, mert hátha jön 100 forinttal olcsóbb/kicsit jobb).

Ha ugy erzed, akkor kuldd el ettol fuggetlenul most a jelentkezesed, elrakjuk. Szeptemberben konnyen lehet, hogy mar ujabb emberre lesz szuksegunk. Nincs dedikalt HR-esunk, tehat nem fogunk mas ajanlatokkal zavarni, es elobb se, mint szeretned:) Viszont ujabb szabadkartyank nem lesz, tehat valoszinuleg itt nem lesz kint a hirdetes.

Eletrajzot mindenkepp varunk, ha irsz a szakmai tapasztalataidrol, az plusz pont, es el is fogjuk olvasni, akarmekkora regenyt irsz:)

Ghostpunk, te nem age of empires-eztél régen?

3 darab értékelhető CV érkezett eddig, mindhárom emberrel felvettük már a kapcsolatot. Most péntekig van még ideje annak, aki esetleg gondolkodik, hogy jelentkezzen.