niedziela, 25 stycznia 2009

Obciążenie systemu

Ludzie instynktownie rozumieją, że jeżeli obciążymy serwer do 100% jego mocy spowoduje to nagły spadek wydajności, drastyczne zwiększenie czasu oczekiwania na odpowiedź oraz ogólnie rozumiany brak stabilności. Jednocześnie tak bardzo dziwią się jak Google może utrzymać krótki czas reakcji na zmiany na rynku, bardzo dużą wydajność pracy oraz stabilność, pozwalając swoim programistom na 20% pracy na rzecz zadań nie związanych z ich aktualnymi projektami.

Przecież to jest to samo. Tak jak serwer, aby utrzymać maksymalną wydajność i krótki czas odpowiedzi nie powinien być przeładowany pracą na więcej niż 80% tak samo pracownik, aby utrzymać maksymalną wydajność i krótki czas reakcji nie powinien być przeładowany powyżej 80% swojego czasu. Co ciekawe jeżeli obciążenie serwera zaczyna w zwykłej firmie oscylować w okolicach 80% to zwykle dyrektor działu IT natychmiast występuje z wnioskiem o zakup nowego serwera. Z drugiej strony jeżeli pracownik jest obciążony na 80% to w zwykłej firmie dyrektor (nawet ten sam) zwykle... dorzuci mu jeszcze jeden projekt. A potem bardzo się będzie dziwił, że czas oczekiwania na efekt gwałtownie rośnie a wydajność spada. Gdzie tu logika?

(temat zaczerpnięty z książki “Implementing Lean Software Development”)

1 komentarz:

Anonimowy pisze...

Uwaga celna. Znam jeszcze inne bardzo trafne porównanie. Co się stanie gdy obciążymy w 100% autostradę, wiadomo korek. Jednak tutaj jest inny problem. Kierownikom, szefom może się wydawać, że pracujemy na pół gwizdka a więc nasze 100% jest w ich mniemaniu realnie 50%. O ile w przypadku autostrady czy serwera można łatwo określić gdzie jest to 100% procent o tyle w przypadku ludzi skala jest zmienna. Zależy od ich umiejętności, zgrania zespołu. metodyki pracy oraz nawyków.