3 listopada 2015

Alternatywa czyli GNU/Linux

(Przeczytaj na początek trochę historii)

Gdy w późnych latach 60-tych firma AT&T Bell Laboratories stworzyła system operacyjny UNIX, nie sądziła że stanie się on aż tak popularny. Niestety jego historia nie była prosta. W połowie lat 70-tych w głośnym procesie antymonopolowym przeciwko firmie telekomunikacyjnej AT&T, wyrokiem sądu zakazano jej wchodzenia na rynek komputerowy. Nie mogła zatem sprzedawać UNIXa jako produktu, miała za to obowiązek udostępnienia swoich nie-telefonicznych technologii każdemu zainteresowanemu podmiotowi. Uniksem zainteresowały się wtedy organizacje akademickie i zyskał w nich sporą popularność. Również wiele firm komercyjnych rozpoczęło używanie tego systemu. Jednak w 1982 roku zakończył się, trwający od 1974 roku, proces antymonopolowy. Nowy wyrok sądu anulował poprzednie zarządzenia dzieląc AT&T na kilka podmiotów, świadczących usługi w różnych branżach. Unix mógł być już wydany jako produkt, problem w tym że przez te kilka lat system ten nie tylko znacznie się spopularyzował, ale był rozwijany niezależnie przez użytkujące go firmy jak i środowiska akademickie. Konflikty związane z dochodzeniem praw do tych poprawek omal nie doprowadziły do zarzucenia projektu. Kilka przedsiębiorstw powołało w 1984 roku konsorcjum X/Open aby  stworzyć otwartą specyfikację Uniksa. Jednak ta próba standaryzacji zmieniła sie w „wojny uniksowe” - powstało kilka rywalizujących ze sobą grup standaryzacyjnych...

Obecna sytuacja formalno-prawna systemu UNIX jest bardzo skomplikowana. Prawa do nazwy i kodu rościły sobie takie firmy jak  Novell, Santa Cruz Operations (SCO) czy Caldera a także Lucent Technologies. Natomiast nazwa UNIX jest zastrzeżonym znakiem handlowym The Open Group, konsorcjum zajmującego się standaryzacją systemów.

System GNU i licencja GPL 


Nie nazywaliśmy naszego oprogramowania „wolnym oprogramowaniem”, bo taki termin wówczas nie istniał. Ale właśnie takie ono było. Kiedy pracownicy innego uniwersytetu albo firmy chcieli przenieść jakiś program na swój system i korzystać z niego, to z chęcią się zgadzaliśmy. Kiedy widziało się kogoś korzystającego z nieznanego, interesującego programu, to zawsze można było poprosić o jego kod źródłowy — żeby go przeczytać, zmienić lub użyć jego fragmentów do stworzenia nowego programu.
 Richard M. Stallman

W pierwszej połowie lat 80-tych, kiedy komputery PC z systemem MS-DOS jeszcze nie zdominowały rynku, przewidywano, że to właśnie system UNIX stanie się standardowym systemem operacyjnym dla mikrokomputerów. Niestety w tym okresie rozpoczęła się masowa komercjalizacja oprogramowania. Licencje nie pozwalały użytkownikom na jego modyfikacje, redystrybucje i kopiowanie. Programy stawały się coraz bardziej skomplikowane. Firmy chroniąc swoich rozwiązań nie udostępniały kodu źródłowego, dystrybuując wyłącznie binarne wersje oprogramowania, uniemożliwiające użytkownikom analizy działania programu.

Sytuacja taka nie podobała się pracownikowi Massachusetts Institute of Technology (MIT) -
Richardowi Stallmanowi. Błędy oprogramowania którego używał, a których nie mógł sam poprawić mimo że posiadał odpowiednie umiejętności, powodowały frustrację i uczucie ograniczenia.

27 września 1983 roku Richard Stallman na listach dyskusyjnych ogłosił rozpoczęcie prac nad nowym ale w pełni zgodnego z Uniksem systemu operacyjnego GNU (od GNU's Not Unix), by "udostępnić go każdemu, kto mógłby go użyć, za darmo". Prosił o wsparcie w postaci poświęconego czasu, pieniędzy, oprogramowania i sprzętu. Aby uniemożliwić uczelni MIT jakichkolwiek roszczeń z tytułu praw autorskich w styczniu 1985 roku Stallman zwolnił się z pracy w MIT całkowicie poświęcając się założonej przez siebie Fundacji Wolnego Oprogramowania (ang. Free Software Foundation, FSF), mającej wspierać ruch wolnego oprogramowania, a w szczególności Projekt GNU. Przewodnią idea która go inspirowała do działania było pragnienie zapewnienia użytkownikom komputerów swobody, takiej jaka panowała latach 60. i 70. XX wieku w akademickich ośrodkach komputerowych. Do Stallmana dołączali ludzie, którzy również byli rozczarowani zamykaniem dostępności kodu.

W połowie 1985 roku został opublikowany Manifest GNU oraz definicja wolnego oprogramowania  określonej w skrócie czterema punktami (jak przystało na programistę numerowanej od zera):
  • 0. Wolność do uruchamiania programu w dowolnym celu.
  • 1. Wolność analizowania, jak program działa i dostosowywania go do swoich potrzeb.
  • 2. Wolność do rozpowszechniania niezmodyfikowanej kopii programu.
  • 3. Wolność udoskonalania programu i publicznego rozpowszechniania własnych ulepszeń.
Tylko jeżeli program spełnia wszystkie cztery wolności jednocześnie, wówczas, według FSF, może być uznany za Wolne Oprogramowanie. Wystarczy, że nie spełnia dowolnej z nich, a nie może być tak kategoryzowany (jest oprogramowaniem zamkniętym).

Logo projektu GNU - stylizowana antropomorficzna głowa antylopy gnu.
Ilustracja: GNU
Specjalnie na użytek Projektu GNU napisano w 1989 roku licencję GNU General Public License (GPL). W 1991 roku została wydana wersja druga tej licencji, która jest obecnie najczęściej używaną licencją wolnego oprogramowania. Zezwala ona aby wszyscy użytkownicy oprogramowania nią objętego mogli je uruchamiać, kopiować, modyfikować i rozprowadzać. Jednocześnie zabrania nakładania dodatkowych obostrzeń na rozprowadzane kopie lub zmodyfikowane wersje. System taki nazywano copyleft (ang. lewo autorskie).

Od połowy lat 90 pojawiło się wiele odrębnych projektów tworzących i rozwijających wolne oprogramowanie. Pracownicy Fundacji Wolnego Oprogramowania obecnie zajmują się głównie kwestiami związanymi z prawami autorskimi. Między innymi w 2007 r. Została wydana trzecia wersja licencji GNU GPL dostosowująca ochronę licencyjną do współczesnego stanu informatyki. Bierze ona uwagę między innymi systemy prawne poza USA, kwestie patentów na oprogramowanie czy ochronę DRM.
 
Licencja GPL jest dość często krytykowana również przez środowiska Open Source. Jedną z kluczowych kwestii jest problem, czy oprogramowanie na innej licencji może być dynamicznie linkowane z bibliotekami GPL. Duże kontrowersje były też związane z ochroną praw autorskich twórców - cyfrowym znakowaniem DRM, którego nowa licencja zabrania. Mówi się też że licencja GPL charakter wirusowy gdyż wszelkie prace bazujące na czymś objętym licencją GPL muszą również być oparte na tej licencji.

Jednak zanim powstała jednolita licencja, w drugiej połowie lat 80-tych trwały intensywne prace programistyczne. Większość systemu GNU napisana została przez wolontariuszy w ich wolnym czasie. Niektórzy programiści byli opłacani przez firmy lub instytucje. W roku 1990 GNU posiadał już edytor tekstu (Emacs), kompilator (GCC), narzędzia programistyczne (binutils), powłokę bash, bibliotekę standardowych funkcji języka C  (glibc) i narzędzia (coreutils) czyli większość podstawowych bibliotek i narzędzi standardowej dystrybucji Uniksa. Jednak brakowało jądra systemu (ang. Kernel). Rozwój GNU Hurd bo tak nazywa się jądro systemu GNU został zahamowany przez pojawiające się problemy techniczne. Pod względem koncepcji technicznej jest to ciekawy projekt bazujący na mikrosterownikach. Jednak mimo iż prace nad nim cały czas trwają, nadal nie można go uznać za stabilne. W międzyczasie pojawiły się alternatywne rozwiązania jądra dla systemu GNU.

Jądro Linux 


W 1987 roku na Vrije Universiteit w Amsterdamie powstał MINIX - system operacyjny do celów edukacyjnych. Znaczna część jego kodu źródłowego, napisanego w C, była umieszczona w wydanej przez uniwersytet książce. W 1991 roku fiński student informatyki Linus Torvalds, zainspirowany miniksem rozpoczął pracę nad własnym jądrem systemu operacyjnego, zgodnego ze standardami unixa. Swoimi planami Linus pochwalił się na grupie dyskusyjnej comp.os.minix w sierpniu, a już w październiku można było podziwiać pierwsze efekty tej pracy. Początkowo Torvalds opublikował swój kod na licencji zabraniającej komercyjnego użycia, ale po przemyśleniu udostępnił efekty swej pracy na licencji GPL w wersji 2.

Zainteresowanie efektem pracy przerosło oczekiwania jego twórcy. Linux - bo tak nazwano nowo powstałe jądro szybko został scalony z gotowymi elementami systemu GNU - tak powstały pierwsze dystrybucje systemu nazywane od nazwy jądra również Linuxami. Początkowo jądro Linux działało jedynie na platformie Intel 80386, później zostało jednak przeniesione także inne. Główna część kodu jest napisana w C z asemblerowymi wstawkami. Rozwojem jądra zajmuje się grupa programistów z całego świata w ramach The Linux Foundation. Projekt ten jest nadal koordynowany osobiście przez Linusa Torvaldsa, który konsoliduje poprawki napisane przez innych programistów i dodaje własne zmiany. Numeracja wersji jądra określa jego przeznaczenie - parzysta liczba po kropce (1.0.x, 1.2.x, 2.0.x, 2.2.x, 2.4.x itd.) to wersje stabilne podczas gdy nieparzyste (np. 2.5.x) to wersje rozwojowe - nie zalecane do produkcyjnego użycia.
 
Uśmiechnięty pingwin Tux - maskotka i nieoficjalne logo Linuksa.
Ilustracja: wikipedia

Systemy operacyjne oparte o jądro Linux są powszechnie stosowane nie tylko w komputerach czy serwerach ale również w urządzeniach sieciowych takich jak firewalle czy routery. Często pełni też rolę systemu osadzonego w odtwarzaczach DVD/Blueray czy telewizorach smart. W oparciu o jądro Linux powstał też Android - bardzo popularny system na urządzenia mobilne. Z uwagi na bezpieczeństwo (możliwość audytu i łatwość modyfikacji kodu źródłowego) z systemów operacyjnych Linux korzystają agencje wywiadowcze czy wojsko. Także rządy kilku państw wdrażają ten system na komputerach administracji państwowej. W 2013 roku NASA ogłosiła migrację z Microsoft Windows na Linux na maszynach używanych przez astronautów.

Open Source - schizma w ruchu Wolnego Oprogramowania?


Pojawienie się w 1991 roku jądra Linux dało impuls do wytężonej pracy nad stworzeniem w oparciu o nie kompletnego systemu. Projekt GNU próbował współpracować z osobami mimo niechęci z drugiej strony. Przystosowanie części komponentów było także finansowane przez Projekt GNU. Pierwsze kompletne dystrybucje systemu operacyjnego pojawiły się w 1993 roku - w lipcu Slackware Linux, miesiąc później Debian, a w kolejnym roku SuSE oraz Red Hat Linux.

Mimo że podstawą tych systemów były narzędzia opracowane przez GNU, to powszechnie nazywa się je tak jak jądro - "Linux”. Szefowi projektu GNU Richardowi Stallmanowi nie spodobała się ta nazewnicza praktyka, która pomijała wieloletnie prace jego fundacji. Od 1995 roku nawołuje on do używania nazwy "GNU/Linux”, która podkreśla wkład pracy włożony w stworzenie podstaw tego systemu przez ruch Wolnego Oprogramowania.
  
W roku 1996 odbyła się przełomowa impreza pod nazwą Conference on Freely Redistributable Software. Pojawiły się na niej dwie główne postaci związane z powstaniem wolnego systemu: Richard Stallman i Linus Torvalds. Stanowcza i nieustępliwa w zasadniczych kwestiach postawa Stallmana już od dawna powodowała liczne tarcia wewnątrz ruchu otwartego oprogramowania. Zupełnie inaczej prezentował się Torvalds. Był o daleki od rygoryzmu zasad FSF - najważniejsza dla niego była wolność w zakresie rozwiązań technicznych. Wynikiem konfrontacji tych dwu postaw stał się głęboki rozłam w środowisku wolnego oprogramowania.

Nowy ruch, który w 1998 roku przyjął nazwę Open Source (otwarte oprogramowanie), zdobył licznych zwolenników, również z uwagi na szybko rozwijający się Internet. Ruch open source krytycznie ocenia "dążenie do konfrontacji" z oprogramowaniem komercyjnym ze strony Stallmana. Jak powiedział Eric Raymond - jedna z czołowych postaci ruchu otwartego oprogramowania: "Jeśli chcesz zmienić świat, musisz zjednać ludzi, którzy wypisują duże czeki". Powstanie ruchu na rzecz otwartego oprogramowania zbiegło się w czasie z boomem dot-com (lata 1998-2000). Nastąpił wtedy spory wzrost popularności Linuksa, powstały też firmy sympatyzujące z open source. Również wiele dużych firm softwarowych jak Corel, Sun Microsystems czy IBM rozszerzyło ofertę o Open Source.

Grafika przypominająca logo The Open Source Initiative
Ilustracja na podstawie: opensource
(oryginalne logo podlega ochronie prawnej)

Obok darmowego udostępniania, oprogramowanie Open Source może być także sprzedawane i wykorzystywane w sposób komercyjny. Zyski można uzyskiwać ze sprzedaży dodatkowych usług, takich jak szkolenia z obsługi, wsparcie klienta czy dostęp do dodatkowych rozszerzeń, wtyczek, dodatków i modułów. Bezpłatna wersja Open Source, to także sposób na zachęcenie do kupna bardziej rozbudowanej wersji dostarczanej na licencji komercyjnej, czy wprowadzenie klienta w inne, płatne produkty firmy. Po 2001 roku, kiedy boom dot-com`ów się skończył i nastąpiła "informatyczna recesja", w warunkach redukcji kosztów oprogramowanie alternatywne stawało się jeszcze popularniejsze.

FLOSS czyli symbioza 


Stallman, wypowiadając się w imieniu Free Software Foundation krytykował ruch open source, gdyż jego zdaniem jego pragmatyczny charakter odwraca uwagę użytkowników od zasadniczych kwestii moralnych, zacierając różnicę pomiędzy pseudowolnym a w pełni własnościowym oprogramowaniem. Mimo to uważa że: "Nie zgadzamy się w kwestiach zasadniczych, ale mniej więcej zgadzamy się w praktyce. Tak więc możemy wspólnie pracować i pracujemy wspólnie nad wieloma projektami."

Aby jednoznacznie określić co to jest oprogramowanie o otwartym źródle ustalono jego definicję zawartą w 10 punktach:

  • 1. Swobodna redystrybucja: oprogramowanie może być swobodnie przekazywane lub sprzedawane.
  • 2. Kod źródłowy: musi być dołączony lub dostępny do pobrania.
  • 3. Programy pochodne: musi być dozwolona redystrybucja modyfikacji.
  • 4. Integralność autorskiego kodu źródłowego: licencje mogą wymagać, aby modyfikacje były redystrybuowane jedynie jako patche.
  • 5. Niedyskryminowanie osób i grup: nikt nie może zostać wykluczony.
  • 6. Niedyskryminowanie obszarów zastosowań: nie wolno wykluczać komercyjnych zastosowań.
  • 7. Dystrybucja licencji: prawa dołączone do oprogramowania muszą się odnosić do wszystkich odbiorców programu, bez konieczności wykonywania przez nich dodatkowej licencji.
  • 8. Licencja nie może być specyficzna dla produktu: program nie może być licencjonowany tylko jako część szerszej dystrybucji.
  • 9. Licencja nie może ograniczać innego oprogramowania: nie może wymagać, aby inne dystrybuowane z pakietem oprogramowanie było typu Open Source.
  • 10. Licencja musi być technicznie neutralna: nie może pociągać za sobą zastrzeżeń dotyczących konkretnego rozwiązania technologicznego, stylu lub interfejsu.
Definicja ta powstała na podstawie dokumentu "Wytyczne Debiana dotyczące wolnego oprogramowania". Określa ona czy dany program może być uznany za wolne oprogramowanie i jako taki włączony do głównej dystrybucji Debiana.
 
W praktyce jeżeli program spełnia warunki licencji Free Software Foundation jest również zgodny z bardziej liberalną definicją Open Source Initiative. Stworzono więc neutralny termin FLOSS (Free Libre/Open Source Software), który  pozwala opisywać jednym określeniem dorobek obu nurtów. Istnieje jednak wyraźna rozbieżność między obu filozofiami - free software kładzie główny nacisk na strony moralne i etyczne dostępności oprogramowania, natomiast open source podkreśla znaczenie technicznej doskonałości kodu. Niemniej w sytuacjach kryzysowych, takich jak atak Microsoftu na GPL w roku 2001, czy proces SCO dotyczący własności jądra Linuksa w 2003 roku, obie formacje trzymają się razem.
 
Zagrożenie dla FLOSS 


Czy zatem przyszłość wolnego/otwartego oprogramowania jest już niezagrożona? W 1998 roku nastąpił wyciek poufnych dokumentów z firmy Microsoft z których wynika że firma ta poczuła w nurcie otwartego oprogramowania zagrożenie. W dokumentach padło stwierdzenie "Ostatnie badania dowodzą dobitnie... że projekty Open Source mogą uzyskać komercyjną jakość.". Określono też potencjalną strategię Microsoftu wobec Open Source, aby zahamować działania tego ruchu. Strategię tę można określić skrótem FUD (ang. fear, uncertainty and doubt - strach, niepewność i zwątpienie). Ujawnienie tych dokumentów było bardzo kłopotliwe dla Microsoftu, który publicznie odżegnywał się od takich zamiarów.

Oficjalnie Microsoft zaprzestał ataków. Ba! W usłudze - chmurze serwerowej - Microsoft Azur pojawiła się możliwość instalacji systemów Linux. Czy to jednak nie jest element dopracowanej przez Microsoft i wielokrotnie przez nich stosowanej strategii określanej skrótem EEE (ang. embrace, extend and extinguish - objąć, rozwinąć i wygasić)... Nie pozwólmy na to !

Dlaczego Debian?
 

Debian to projekt wolnej dystrybucji systemu operacyjnego GNU/Linux (ale także GNU/kFreeBSD i GNU/Hurd). Powstanie Debiana zostało ogłoszone 16 sierpnia 1993 roku na grupie comp.os.linux.development przez studenta uniwersytetu Purdue - Iana Murdocka. Napisał on Manifest Debiana, w którym apelował o stworzenie otwartej dystrybucji w duchu Linuksa i GNU. Nazwa „Debian” jest zbitką imion Murdocka i jego dziewczyny Debry. Początkowo projekt rozwijał się wolno. - wersja 1.x została wydana dopiero w 1996. Ponadto z uwagi na dbałość o jakość i bezpieczeństwo dystrybucji, nowe wersje stabilne pojawiają się dość rzadko. Debian cieszy się jednak opinią stabilnego systemu o wysokiej jakości i łatwego do aktualizowania.

Debian jest tworzony przez dużą grupę ochotników z całego świata. Nie jest związany z żadną firmą ani organizacją. (Przez krótki czas był powiązany z Free Software Foundation). Wersje oprócz numeru noszą nazwę opisową, pochodzącą od imion zabawek z filmu animowanego "Toy story". Obecna wersja 8 - Jessie została wydana 25 kwietnia 2015 roku, poprzednie to 6 - Squeeze z 2011 czy 7 - Wheezy z 2013.

Rozwój systemu następuje w trzech równoległych gałęziach:
  • stabilnej (stable) - aktualna wersja - zmiany to niemal wyłącznie poprawki w zakresie bezpieczeństwa;
  • testowa (testing) – przyszła wersja stabilna - trafiają do niej pakiety przetestowane w wersji niestabilnej;
  • niestabilna (unstable) – tutaj trafiają wszystkie nowe wersje pakietów;
Tworzenie nowej wersji stabilnej polega na zamrożeniu gałęzi testowej - która po okresie testowej kwarantanny staje się wersją stabilną. Oprócz tych trzech gałęzi istnieje wersja eksperymentalna (experimental) – nosząca także nazwę Sid - Still In Development (ang. ciągle rozwijany, a w filmie Toy Story - imię chłopca ciągle psującego zabawki).
  
Charakterystyczny "swirl" - będący wizualną identyfikacja projektu Debian
Ilustracja: debian
Debian jest systemem tworzonym od podstaw tj. poprzez skompilowanie jądra, innych narzędzi i programów oraz połączenie ich w spójną dystrybucję. Na Debianie bazuje natomiast ogromna ilość dystrybucji pochodnych. Do najpopularniejszych należą Ubuntu, Linux Mint czy Raspbian (specjalna wersja przeznaczona dla mikrokomputera RaspberryPi).

Środowisko graficzne GNOME 


Na początku wiele operacji wykonywanych w systemie wymagało użycia wiersza poleceń. Warto umieć korzystać z terminala tekstowego gdyż wiele podręczników i tutoriali podaje sposób  rozwiązania problemu w postaci ciągu poleceń.
  
Jednak do codziennej pracy z komputerem najczęściej używa się interfejsu graficznego. Podstawą pracy środowisk graficznych w sydtenach unixopodobnych jest, stworzony w latach 80-tych w laboratoriach Massachusetts Institute of Technology (MIT), X Window System (obecnie prace nadzoruje X.Org Foundation). System X tworzy okna, na których program może tworzyć obraz, oraz zajmuje się obsługą urządzeń wejściowych (myszki i klawiatury), może też rysować tylko najprostsze obiekty. Nie dostarcza on jednak żadnego interfejsu użytkownika - tym musi się zająć sam program, ani nie zajmuje się samą obsługą okien - przesuwaniem czy zamykaniem - to z kolei zadanie dla tzw. menedżera okien (ang. window manager).

Aby uspójnić wygląd, sposób obsługi okien i całego systemu stworzono tzw. środowiska graficzne. Jednym z pierwszych było powstałe w 1996 roku środowisko KDE. Zawiera ono bogaty system bibliotek do tworzenia aplikacji w środowisku graficznym. Zyskało ono szybko sporą popularność, jednak wraz z nią wzrosły obawy zwolenników wolnego oprogramowania przed konsekwencjami rozpowszechniania programów opartych na własnościowej bibliotece graficznej Qt - nie podlegającej licencji GPL. W konsekwencji powstały alternatywne środowiska graficzne, z których ogromną popularność zdobyło środowisko GNOME - oparte wolnej bibliotece GTK+. Mimo iż w międzyczasie biblioteka Qt została uwolniona, środowisko KDE nie odzyskało utraconej pozycji.

Łapa przypominająca logo środowiska graficznego GNOME a zarazem Fundacji GNOME
Ilustracja na podstawie: gnome
(oryginalne logo podlega ochronie prawnej)

Projekt GNOME (ang. GNU Network Object Model Environment) powstał w 1997 roku. Dostarcza on dwa elementy: środowisko graficznego GNOME - stanowiące intuicyjny i atrakcyjny pulpit dla użytkowników końcowych, oraz zespół bibliotek koniecznych dla budowania aplikacji zintegrowanych z tym środowiskiem. Pierwsza wersja środowiska GNOME pojawiła się w 1999 roku, a w 2000 roku została utworzona Fundacja GNOME, zajmująca się kwestiami formalnymi oraz dystrybucją GNOME. W czerwcu 2002 została wydana wersja 2.0 środowiska oparta na nowej wersji biblioteki GTK+ 2.x. Wersja ta uważana była za bardzo stabilną i funkcjonalną.

Kontrowersje związane z wydaniem GNOME 3 


Od kiedy w kwietniu 2011 pojawiła się nowa, oparta na bibliotece GTK+ 3.x. wersja środowiska GNOME nie cichną bardzo ostre komentarze. Wiele osób krytycznie odniosło się do nowatorskiego interfejsu użytkownika. Jedną z nich był sam Linus Torvalds - oświadczył że przenosi się na prostrze środowisko XFCE. No cóż - GNOME 3 wymaga zmiany dotychczasowych przyzwyczajeń (Linus znany jest ze swej porywczej i niecierpliwej natury - w jednym z wywiadów np. przyznał że nie poradził sobie z instalacją Debiana...). Wiele osób porzuciło jednak to środowisko. Zespół GNOME wychodząc na przeciw malkontentom dodał w 2013 roku tryb Classic - emulujący wygląd środowiska znany z wersji 2.0. Nadal jednak konsekwentnie realizują swoja wizję interfejsu, która w kolejnych wersjach wygląda coraz lepiej. Czy naprawdę to środowisko jest tak niefunkcjonalne jak to malują użytkownicy? Przekonajmy się sami.

W tym miejscu zamieszczam krótką prezentację wersji GNOME 3.14 – podstawowego środowiska graficznego systemu GNU/Linux Debian 8.



Ale dość teorii - w następnej części przystąpimy już do instalacji systemu !

1 komentarz: