E N D
1961-1965 HISTORIA SIECI – pierwsze kroki 1961 L. Kleinrock z Massachusetts Institute of Technology przedstawia zarys teorii przełączania pakietów. Instytucja RAND Corporation (Research and Development) dostała zlecenie od Sił Powietrznych USA, zbudowania sieci komunikacji głosowej, która przetrwa atak atomowy. 1962 J.C.R. Licklider z Massachusets Institute for Technology (MIT) opracowuje koncepcję oplecenia ziemi globalną siecią telekomunikacyjną. Ponadto Paul Baran z RAND Corporation utworzył model sieci oparty na wymianie danych w małych pakietach. Powstały więc kolejne koncepcje będąca zalążkiem Internetu. 1965 T. Merril i L.G. Roberts za pomocą linii telefonicznej łączą między Massachusetts a Kalifornią dwa komputery. Początkowo istniały tylko sieci izolowane. Każda z nich wykorzystywała swój własny sposób komunikacji, stworzony przez firmę administracyjną. Łączenie poszczególnych sieci było bardzo drogie albo wręcz niemożliwe.
Arpanet (ang. Advanced Research Projects Agency Network) - pierwsza sieć rozległa oparta na rozproszonej architekturze i protokole TCP/IP. Jest bezpośrednim przodkiem Internetu. Arpanet powstał jako inicjatywa Departamentu Obrony USA (Pentagonu). W 1957 roku po szoku wywołanym wysłaniem Sputnika w kosmos przez ZSRR powołano rządową agencję której zadaniem było obserwowanie i wspieranie inicjatyw powstających na uczelniach w USA, które miały szczególne znaczenie dla obronności USA. Historia Internetu sięga już ponad ćwierć wieku wstecz. Zaczęła się ona 1 września 1969 roku, kiedy to na Uniwersytecie Kalifornijskim w Los Angeles (UCLA), a wkrótce potem w trzech następnych uniwersytetach, zainstalowano w ramach eksperymentu finansowanego przez ARPA (Advanced Research Project Agency - agencję rządu Amerykańskiego zajmującą się koordynowaniem badań naukowych na potrzeby wojska) pierwsze węzły sieci ARPANET - bezpośredniego przodka dzisiejszego Inernetu. Eksperyment miał zbadać możliwość zbudowania sieci komputerowej bez wyróżnionego punktu centralnego, która mogła by funkcjonować nawet pomimo uszkodzenia pewnej jej części. Wszystkie istniejące do tej pory sieci zarządzane były przez jeden główny komputer, którego awaria pozbawiła by możliwości pracy całą sieć. Sieć taka nie nadawała się do dowodzenia armią podczas wojny, gdyż taki główny węzeł sieci byłby oczywiście pierwszym celem ataku przeciwnika. W ciągu następnych dwóch lat sieć była rozbudowywana, a w pracach nad nią brała udział coraz większa liczba naukowców z różnych ośrodków. Jednym z pierwszych zastosowań sieci było zdalne wykonywanie obliczeń na komputerach dużej mocy znajdujących się w innych ośrodkach.
1969-1990HISTORIA SIECI – powstanie Internetu • Lata 60-te - Izolowane systemy komputerowe. • 1969-1990 - ARPANET - Advanced Research Project Agency Network. • - zdefiniowanie protokołu przesyłania plików - FTP, oraz logowania – TELNET, e-mail • 1973 - zainicjowanie pierwszego europejskiego połączenia poprzez sieć pomiędzy Anglią a Norwegią. • 1978 - UUCP - UNIX to UNIX copy. • - USENET - Users Network - to ogólnoświatowy system grup dyskusyjnych • 1980 - ARPANET obejmuje 400 serwerów na uniwersytetach, w rządzie i armii Stanów Zjednoczonych. • 1981 - CSNET - Computer Science Network. • - BITNET - Because It's Time Network - łącząca uczelnie w USA • - Powstają emotikony ;-) • 1983 - FidoNet, ARPAnet zostaje rozdzielony na dwie części: militarną - MILNET oraz cywilną - ARPAnet, • 1983 - Internet (TCP/IP) • 1984 - NSFNET - National Science Foundation Network. Na potrzeby Internetu opracowano hierarchiczny system unikatowych nazw domenowych i protokołów DNS (Domain Name System). • 1987 - OSI - Open System Interconnection. • 1988 - GOSIP - Government OSI Profile. Powstaje Internet Relay Chat (IRC). • 1989 - liczba komputerów w Internecie przekracza 100 000, do Internetu dołącza Kanada, Finlandia , Niemcy. • 1990 - ARPANET kończy swoją działalność.
1990-2007 • 1991: • naukowcy z CERNu opracowali standard WWW (World Wide Web). • Zniesiono zakaz używania Internetu do celów komercyjnych. • wiosna – w Polsce powstaje NASK (Naukowa i Akademicka Sieć Komputerowa). • 17 sierpnia 1991 r. Rafał Pietrak, fizyk z Uniwersytetu Warszawskiego, nawiązał łączność w oparciu o protokół IP z Janem Sorensenem z Uniwersytetu w Kopenhadze. • 20 grudnia - Polska zostaje przyłączona do Internetu. • kwiecień - powstaje protokół Gopher • 1992: • TP S.A. uruchamia sieć pakietową POLPAK • 1993: • 11 czerwca 1993 decyzja Komitetu Badań Naukowych o budowie Miejskich Sieci Komputerowych w jedenastu ośrodkach akademickich: w Warszawie, Krakowie, Poznaniu, Wrocławiu, Toruniu, Gdańsku, Katowicach/Gliwicach, Łodzi, Szczecinie, Rzeszowie i Lublinie oraz przyznaniu funduszy na budowę sieci szkieletowej NASK. • powstaje pierwsza przeglądarka WWW umożliwiająca oglądanie graficznych stron - Mosaic. • powstaje Tucows - jedna z większych składnic oprogramowania shareware, freeware i demo. • powstaje pierwszy polski MUD - Studnia Dusz.
1994: • kwiecień - powstaje portal Yahoo!. • w czerwcu powstaje pierwszy w Polsce komercyjny BBS - Maloka BBS. • Premiera przeglądarki Netscape Navigator. • 1995: • Powstaje pierwszy polski portal: Wirtualna Polska, • 23 sierpnia 1995 prezentacja nowej przeglądarki internetowej na bazie kodu Mosaica - Internet Explorer. • Rusza wyszukiwarka stron AltaVista. • 1996: • TP S.A. uruchamia usługę anonimowego dostępu, • firma Polbox od listopada oferuje pierwsze w Polsce darmowe konta e-mail, a następnie WWW. • Powstaje portal Onet.pl. • Powstaje wyszukiwarka HotBot. • 1997: • oficjalna premiera PHP.
1998: • Powstaje Google. • 1999: • Powstają pierwsze polskie komunikatory: Gadu-Gadu i Tlen.pl. • Powstaje portal Interia.pl oraz portal O2. • 2001: • Powstaje pierwszy międzynarodowy program głosowy Skype • 15 stycznia - powstaje Wikipedia, 26 września - polska Wikipedia
Użytkownicy internetu IV.2006 szacunki: 0.6 – 1 miliardów osób
USŁUGI INTERNETU • Dostawca usługi Internetu (ISP – po angielsku Internet Service Provider), czasem skrótowo tylko provider (wym. prowajder), często oprócz łącza do Internetu oferuje następujące usługi dodane: • hosting stron internetowych WWW lub serwerów internetowych FTP; • pocztę elektroniczną (e-mail) na swoim portalu lub serwerze. • Jeżeli ISP je oferuje, to ich koszt może być wliczony w koszt usługi podstawowej. • Samo korzystanie z Internetu nie wymaga wykupienia żadnych innych dodatkowych usług od ISP. Obojętnie czy w domu czy w kafejce internetowej można bez dodatkowych opłat: • przeglądać strony internetowe – WWW; • transferować pliki – FTP, P2P; • korzystać z darmowych skrzynek poczty elektronicznej; • dyskutować w grupach dyskusyjnych Usenetu.
Oprócz wyżej wymienionych, Internet umożliwia dostęp do szerokiej gamy usług takich jak m.in.: • dyskusje internetowe (grupy dyskusyjne, e-mailowe listy dyskusyjnych, fora dyskusyjne) • rozmowy tekstowe w czasie rzeczywistym (IRC) • komunikatory internetowe (Gadu-Gadu, ICQ, Jabber, Skype, Tlen) • telefonia internetowa (VoIP - ang. Voice over Internet Protocol) • radio internetowe • telewizja internetowa • telekonferencje • faksowanie • sklepy internetowe • aukcje internetowe • giełda internetowa • bankowość elektroniczna • gry online
Internet (z angielskiego, dosł. międzysieć) - globalna ogólnoświatowa sieć komputerowa logicznie połączona w jednorodną sieć adresową opartą na protokole IP (Internet Protocol), do komunikacji używająca TCP/IP (ang. Transmission Control Protocol/Internet Protocol), dostarcza lub wykorzystuje usługi wyższego poziomu oparte na telekomunikacji i związanej z nią infrastrukturze. Połączenie komputera z Internetem Przyłączenie komputera do Internetu możliwe jest z wykorzystaniem wielu technologii, które pozwalają urządzeniu komunikować się z pobliską bramką posiadającą stałe połączenie z innymi systemami w Internecie. Typowe rozwiązania wykorzystują linie telefoniczne (modemy, cyfrowe linie ISDN, modemy ADSL), inne technologie przewodowe (transmisja przez sieci energetyczne, telewizję kablową) oraz bezprzewodowe (GPRS, łącza satelitarne, Wi-Fi). Aby pracować w Internecie, komputer musi być w stanie komunikować się z innymi systemami przez protokoły z rodziny TCP/IP, a także posiadać oprogramowanie klienckie pozwalające na praktyczne wykorzystanie usług oferowanych przez innych użytkowników.
ICANN The Internet Corporation for Assigned Names and Numbers (ICANN) jest powołaną przez rząd USA organizacją koordynującą przyznawanie unikalnych adresów IP i wysokopoziomowych nazw DNS w Internecie, na Ujednolicony system nazywania, pozwalający na prawidłowe kierowanie ruchem w skali globalnej, jest konieczny do poprawnego działania Internetu. Siedziba główna ICANN znajduje się w Marina del Rey w Kalifornii, a organizacja jest nadzorowana przez międzynarodowy zarząd, którego członkowie wybierani są przez techniczne, biznesowe, akademickie i niekomercyjne kręgi użytkowników sieci. Ponieważ Internet jest siecią wielu dobrowolnie połączonych węzłów, nie ma jako takiego centrum zarządzania, a rola ICANN jest po prostu umowną konwencją, która nie musi być przestrzegana przez użytkowników. Internet a WWW - terminologia Internet i World Wide Web nie są synonimami. Internet to sieć komputerowa – wiele połączonych ze sobą komputerów. WWW jest jednym z dóbr dostępnych przy pomocy Internetu. Innymi bardzo popularnymi są poczta elektroniczna i wymiana plików w sieciach P2P. WWW jest zbiorem dokumentów i innych zasobów połączonych hiperłączami i URL-ami. Ścisłe podanie różnicy między tymi pojęciami odwołuje się do protokołów internetowych. Protokoły komunikacyjne są podzielone na warstwy. Każda warstwa zapewnia funkcjonalność wymaganą przez wyższą warstwę. Internet to sieci komputerowe komunikujących się za pomocą IP (ang. Internet Protocol) i TCP (ang. Transmission Control Protocol). Inne protokoły, takie jak HTTP (ang. Hypertext Transfer Protocol), który jest wykorzystywany przez WWW, działają na wierzchu warstwy komunikacyjnej (IP) i kontroli transmisji (TCP). HTTP jest protokołem warstwy aplikacji.
Wyszukiwanie i ściąganie danych z internetu • Systemy indeksujące • P2P Peer-to-peer • FTP • Torrent BitTorrent – protokół wymiany i dystrybucji plików przez Internet, którego celem jest odciążenie łączy serwera udostępniającego pliki. Jego największą zaletą w porównaniu do protokołu HTTP jest podział pasma pomiędzy osoby, które w tym samym czasie pobierają dany plik. Oznacza to, że użytkownik w czasie pobierania wysyła fragmenty pliku innym użytkownikom.
Web 2.0 Web 2.0 - określenie serwisów internetowych, powstałych po 2001 roku, w których działaniu podstawową rolę odgrywa treść generowana przez użytkowników danego serwisu. Ten termin został spopularyzowany dzięki firmie O'Reilly Media, która w 2004 roku zorganizowała szereg konferencji poświęconych temu nowemu trendowi internetowemu. Wbrew numeracji wersji oprogramowania, Web 2.0 nie jest nową World Wide Web ani Internetem, ale ulepszeniem, innym sposobem na wykorzystanie jego dotychczasowych zasobów. Uważa się, że serwisy Web 2.0 zmieniają paradygmat interakcji między właścicielami serwisu i jego użytkownikami, oddając tworzenie większości treści w ręce użytkowników. Strony Web 2.0 mają tendencję do korzystania z nowych technik takich jak XHTML, SOAP, AJAX, XUL, RDF, dużo częstsze wykorzystywanie kanałów RSS i Atom oraz bardzo szerokie rozpropagowanie Webservices.
Cechy Web 2.0 • Techniczne • wykorzystanie mechanizmu wiki, blogów • udostępnianie interfejsów XML, które umożliwiają innym stronom i programom korzystanie z danych Web 2.0 (przede wszystkim przez RSS i Atom) • używanie nowych technologii, jak np. AJAX czy Ruby on Rails • Społeczne • generowanie treści przez użytkowników, • użycie folksonomii • tworzenie się wokół serwisów rozbudowanych społeczności • wykorzystanie kolektywnej inteligencji • wykorzystanie otwartych licencji, jak Creative Commons czy GNU GFDL • Wygląd • pastelowe barwy • gradienty • zaokrąglenia • duże czcionki • efekt "mokrej podłogi"
Sceptycy uważają, że wiele rozwiązań, które uznaje się za elementy tego systemu, pojawiło się znacznie wcześniej niż zaczęto myśleć o rewolucji (mechanizm Wiki powstał w 1996 roku, kanały RSS w 2000 itd.). Zgodnie z tym tokiem myślenia, Web 2.0 nie prezentuje nowego spojrzenia na sieć, a jedynie kontynuuje rozpoczęte w przeszłości procesy. Paul Boutin, konfrontując kilka autonomicznych definicji próbuje udowodnić, że w istocie nowe określenie dla starej sieci było potrzebne „internetowym przedsiębiorcom, którzy spóźnili się na boom związany z rozwojem Web 1.0”. Russel Shaw podtrzymuje to stanowisko, wprost nazywając Web 2.0 "chwytem marketingowym ”.
Przedstawiciele Web 2.0 .PL • Wiadomości24.pl – polski społecznościowy serwis informacyjny założony 14 czerwca 2006. Pisanie informacji opiera się w głównej mierze na dziennikarstwie obywatelskim osób zarejestrowanych oraz informacjach z agencji prasowej Polskapresse. • Grono.net – polska strona internetowa gromadząca osoby należące do zamkniętej społeczności znajomych. • Do Grona można dołączyć tylko przez zaproszenie od znajomego (użytkownika Grono.net). Z poziomu strony głównej jest możliwe wyszukanie tzw. profilu publicznego któregoś z "Gronowiczów" i wysłanie mu prośby o zaproszenie do Grona. • Liczba użytkowników we wrześniu 2006 roku przekraczała 900 tys. Witryna pozwala na udostępnienie swoich danych (w zakresie określanym przez użytkownika). • i ze świata: • Flickr - serwis internetowy stworzony do gromadzenia i udostępniania zdjęć cyfrowych online • Jamendo - muzyczny serwis internetowy publikujący muzykę na licencjach Creative Commons/Free Art Licence. • MySpace (ang. "moja przestrzeń") – nr. 6 w TOP 500 • Serwis ten umożliwia przede wszystkim komunikację pomiędzy internautami i nawiązywanie drogą elektroniczną znajomości. • zagraniczne z polskimi wersjami językowymi • Wikipedia • YouTube
Adres IP(Internet Protocol address) to unikatowy numer przyporządkowany urządzeniom sieci komputerowych, protokół IP. Adresy IP są wykorzystywane w Internecie oraz sieciach lokalnych. Adres IP zapisywany jest w postaci czterech oktetów w postaci dziesiętnej oddzielonych od siebie kropkami, np. adres IP: 150.254.66.81 Adresowanie IPv4 W IPv4, czyli obecnym standardzie adresowania internetu, adres IP to liczba 32-bitowa (od 0 do 4 294 967 295).
Liczby w adresie IP nazywają się oktetami, ponieważ w postaci binarnej mają one osiem bitów. Te osiem bitów daje w sumie 256 kombinacji, więc każdy oktet przedstawia liczbę od 0 do 255. Najpopularniejszy sposób zapisu adresów IP, to przedstawianie ich jako 4 dziesiętnych liczb od 0 do 255 oddzielonych kropkami. W rzeczywistości komputery traktują adres Wikipedii jako liczbę 32-bitową: 3482223596 Taki zapis jest mało czytelny, wobec czego stosuje się podział adresu IP na cztery oktety. Adres Wikipedii zapisujemy binarnie: 11001111 10001110 10000011 11101100 po czym każdą grupę 8-bitów przekształcamy do postaci dziesiętnej: 207 142 131 236 Przykładowe adresy trzech komputerów w danej podsieci: Komputer 1: 192.168.1.1 Komputer 2: 192.168.1.2 Komputer 3: 192.168.1.3
Ogólne zasady adresowania IP • Podczas nadawania adresów IP należy przestrzegać następujących reguł: • Wszystkie stacje w jednym fizycznym segmencie sieci powinny mieć ten sam identyfikator sieci • Część adresu IP określająca pojedynczą stację musi być odmienna dla każdej stacji w segmencie sieci • Identyfikatorem sieci nie może być 127 - wartość ta jest zarezerwowana do celów diagnostycznych • Identyfikator stacji nie może składać się z samych jedynek - jest to adres rozgłaszania dla sieci lokalnej • Identyfikator sieci nie może składać się z samych zer - jest to oznaczenie sieci lokalnej • Identyfikator stacji również nie może składać się z samych zer - jest to oznaczenie sieci wskazanej przez pozostałą część adresu i nie może zostać przypisane pojedynczej stacji
Adresy w sieci lokalnej Trzy następujące pule adresów IP zostały zarezerwowane do użytku w sieciach lokalnych, oddzielonych serwerami proxy lub zaporami firewall: od 10.0.0.0 do 10.255.255.255 od 172.16.0.0 do 172.31.255.255 od 192.168.0.0 do 192.168.255.255 Celem ich utworzenia było zapewnienie sieciom nie przyłączonym do Internetu puli adresów niewchodzących w konflikt z żadnymi adresami będącymi w użyciu w Internecie. Sieciom korzystającym z tych pul nie zagraża, w razie późniejszego przyłączenia do Internetu, przypadkowy konflikt z inną siecią obecną w Internecie.
Klasy adresów IP A 0 Sieć . Stacja . Stacja . Stacja B 10 Sieć . Sieć . Stacja . Stacja C 110 Sieć . Sieć . Sieć . Stacja D 1110 Adres multiemisji E 11110 Zarezerwowany do użycia w przyszłość
Znaczenie masek podsieci Maska podsieci (ang. SNM - subnet mask) jest wykorzystywana do określania, ile bitów adresu IP wskazuje sieć, a ile stację w tej sieci. Dla adresów klas A, B i C wykorzystywane są maski domyślne: klasa A - 255.0.0.0 klasa B - 255.255.0.0 klasa C - 255.255.255.0 Maska podsieci klasy A wskazuje, że sieciowa część adresu to pierwsze 8 bitów. Pozostałe 24 bity określają stację w tej sieci. Jeżeli adresem stacji jest 11.25.65.32, to wykorzystanie maski domyślnej określa adres sieci jako 11.0.0.0. Częścią adresu wskazującą stację jest 25.65.32.
DNS - nazwy zamiast liczb • Wszystkie komputery w sieci TCP/IP identyfikowane są za pomocą jednoznacznego adresu IP. Jego postać liczbowa o długości 32 bitów jest skomplikowana i łatwo o błąd podczas wpisywania. Z tego powodu już w roku 1984 utworzono system nazw domen Domain Name System (DNS). To właśnie dzięki niemu można połączyć się z hostem, używając przynależnej nazwy domeny. • DNS to rozproszona baza danych, której głównymi komponentami są serwery nazw. Zarządzają informacjami o odwzorowaniu, co polega na wzajemnym przyporządkowaniu adresów IP i nazw komputerów. • Gdy jeszcze nie było Internetu obecnej postaci, a ARPAnet łączył kilkaset komputerów, wszystkie informacje o hostach mieściły się w jednym pliku. Plik ten musiał się znajdować w każdym komputerze podłączonym do sieci ARPAnet; zawierał wszystkie informacje związane z odwzorowaniem. System nazw domen usunął podstawowe wady tablic nazw opartych na plikach: • DNS daje się łatwo rozszerzać, • ma postać rozproszonej bazy danych i gwarantuje, że informacje o nowych komputerach i zmianach w razie potrzeby dotrą do wszystkich użytkowników Internetu.
URL (ang. Uniform Resource Locator) oznacza ujednolicony format adresowania zasobów (informacji, danych, usług), stosowany w Internecie i w sieciach lokalnych. protokół://adres_serwera:port/ścieżka_dostępu http://www.wikipedia.com/wiki/URL/plik.txt http – protokół dostępu do zasobu www.wikipedia.com – adres serwera wiki/URL – ścieżka dostępu do zasobu ftp://ftp.onet.pl/PUB http://150.254.66.81/ http://150.254.190.62:9080/ nazwa_użytkownika@adres_serwera piotr_342@gmail.com
Każda przesyłana Internetem informacja przechodzi (w postaci opisanych powyżej pakietów) przez wiele komputerów, zwykle kilka lub kilkanaście. Trasa nie jest ustalana ,,na sztywno'', lecz zestawiana dynamicznie przez kolejne komputery w zależności od dostępnych w danej chwili połączeń. Poniższe listy to wynik działania komendy traceroute, podającej listę komputerów pośredniczących w połączeniu o określonym celu. Startujemy z komputera w Warszawie; lista opisuje drogę do USA (docelowy komputer to cnn.com): 1 bbone-R-wman (193.0.80.10) 3.692 ms 1.688 ms 1.529 ms 2 ext-gate-ciuw.net.uw.edu.pl (193.0.112.12) 2.579 ms 1.891 ms 2.378 ms 3 148.81.253.5 (148.81.253.5) 15.175 ms 12.006 ms 13.968 ms 4 poznan-gw-a50014.poznan.pol34.pl (150.254.213.113) 16.077 ms 15.898 ms 15.518 ms 5 poznan.ny.dante.net (212.1.200.61) 280.920 ms 290.803 ms 299.990 ms 6 500.POS2-2.GW9.NYC4.ALTER.NET (157.130.19.21) 288.728 ms * * 7 110.ATM2-0.XR2.NYC4.ALTER.NET (152.63.21.206) 310.588 ms 308.174 ms * 8 188.ATM3-0.TR2.NYC1.ALTER.NET (146.188.179.38) 280.698 ms * 285.223 ms 9 104.ATM7-0.TR2.ATL1.ALTER.NET (146.188.136.61) 325.033 ms 295.604 ms 292.410 ms 10 198.at-2-0-0.XR2.ATL5.ALTER.NET (152.63.80.233) 295.714 ms 330.891 ms 307.345 ms 11 194.ATM11-0-0.GW1.ATL3.ALTER.NET (146.188.233.61) 300.661 ms 305.095 ms * 12 cnn-gw.customer.ALTER.NET (157.130.68.182) 322.275 ms !X 300.921 ms !X *
PROTOKOŁY BEZ PANIKI ! Warstwa aplikacji ADSP (AppleTalk) • APPC • AFP (AppleTalk) • DAP • DLC • DNS53 • ed2k • FTAM • FTP 20,21 • Gopher • HTTP80 • HTTPS443 • IMAP143 • IRC 194,529 • Named Pipes • NCP524 • NetBIOS 137,138,139 • NWLink • NBT • NNTP119 • NTP123 • PAP • POP3110 • RPC • RTSP • SNMP 161,162 • SMTP25 • SMB • SSL/TLS • SSH22 • TDI • Telnet23 • X.400 • X.500 • XDR • ZIP (AppleTalk) (Cyfry w indeksie oznaczają numery portu) Warstwa transportowa ATP (AppleTalk) • NBP (AppleTalk) • NetBEUI • RTP • RTMP (AppleTalk) • SPX • TCP • UDP • SCTP Warstwa sieciowa IP • ICMP • IPsec • NAT • IPX • NWLink • NetBEUI • DDP (AppleTalk) Warstwa dostępu do sieci ARP • 10BASE-T • 802.11 WiFi • ADSL • Ethernet • EtherTalk • Fibre Channel • ISDN • LocalTalk (AppleTalk) • NDIS • ODI • PPP • RS-232 • SLIP • Token Ring • TokenTalk (AppleTalk) • V.90
Telnet to standard protokołu komunikacyjnego używanego w sieciach komputerowych do obsługi odległego terminala w architekturze klient-serwer. Telnet jest usługą (programem) pozwalającą na zdalne połączenie się komputera (terminala) z oddalonym od niego komputerem (serwerem) przy użyciu sieci, wykorzystując do tego celu protokół TCP-IP oraz standardowo przypisany port 23. Umożliwia on zatem ustanowienie użytkownikowi zdalnej sesji na serwerze tak jak gdyby siedział tuż przed nim. Protokół obsługuje tylko terminale alfanumeryczne, co oznacza, że nie obsługuje myszy ani innych urządzeń wskazujących. Nie obsługuje także graficznych interfejsów użytkownika. Wszystkie polecenia muszą być wprowadzane w trybie znakowym w wierszu poleceń. Polecenia wydawane za pomocą naszego komputera przysłane są poprzez sieć serwera, na którym zainstalowane jest oprogramowanie serwera telnetu. W odpowiedzi serwer odsyła nam komunikaty, które następnie wyświetlane są na naszym ekranie.
SSH (ang. secure shell)to standard protokołów komunikacyjnych używanych w sieciach komputerowych TCP-IP, w architekturze klient-serwer. W ścisłym znaczeniu SSH to tylko następca protokołu telnet, służącego do terminalowego łączenia się ze zdalnym komputerem. SSH różni się od telnetu tym, że transfer wszelkich danych jest zaszyfrowany, oraz możliwe jest rozpoznawanie użytkownika na wiele różnych sposobów. W szerszym znaczeniu SSH to wspólna nazwa dla całej rodziny protokołów, nie tylko terminalowych, lecz także służących do przesyłania plików (SCP, SFTP), zdalnej kontroli zasobów, tunelowania i wielu innych zastosowań. Wspólną cechą wszystkich tych protokołów jest identyczna z ssh technika szyfrowania danych i rozpoznawania użytkownika. Obecnie protokoły z rodziny SSH praktycznie wyparły wszystkie inne "bezpieczne" protokoły takie jak np: Rlogin i RSH Znane implementacje SSH to zamknięty ssh.com, oparty na licencji Open Source OpenSSH oraz wersja protokołu stosowana w programie PuTTY. VNC (ang. Virtual Network Computing) - system przekazywania obrazu z wirtualnego, bądź fizycznego środowiska graficznego. Prosty pakiet serwer+klient jest dostępny pod najpopularniejsze systemy operacyjne z trybem graficznym, jak: Linux, Windows, BSD, MacOS, OS/2, Solaris, AmigaOS, SCO i wiele innych. Klienty VNC są dostępne nawet dla urządzeń typu PDA i niektórych telefonów komórkowych.
FTP (ang. File Transfer Protocol)- protokół typu klient-serwer, który umożliwia przesyłanie plików z i na serwer poprzez sieć TCP/IP. Serwer FTP, zależnie od konfiguracji, może pozwalać na dostęp do jego zawartości bez podawania hasła. Zamiast niego powinno się podawać adres e-mail (wg netykiety). Często jednak nie jest to przestrzegane własnie ze względu na anonimowy charakter usługi. Większość serwerów FTP loguje jednak każde połączenie i IP klienta. SFTP (ang. SSH File Transfer Protocol) – protokół pozbawiony wad, które posiada zwykły FTP. Przesyłając plik dzięki protokołowi FTP uzyskujemy dobre przepływności, ale nie zyskujemy bezpieczeństwa, nasze hasła nie są szyfrowane. Secure copy (ang. bezpieczne kopiowanie) lub SCP oznacza bezpieczny transfer plików pomiędzy lokalnym a zdalnym lub między zdalnymi komputerami, używając protokołu Secure Shell (SSH). Skrót SCP odnosi się do dwóch powiązanych ze sobą rzeczy: protokół SCP oraz polecenie scp. Programy pod windows: WinScp, TotalCommander, Wiersz poleceń - FTP
HTTP http://www.... HTTP (ang. Hypertext Transfer Protocol - protokół przesyłania dokumentów hypertekstowych) to protokół sieci WWW (ang. World Wide Web). Obecną definicję HTTP stanowi RFC 2616. Za pomocą protokołu HTTP przesyła się żądania udostępnienia dokumentów WWW i informacje o kliknięciu odnośnika oraz informacje z formularzy. Zadaniem stron WWW jest publikowanie informacji - natomiast protokół HTTP właśnie to umożliwia. Protokół HTTP jest tak użyteczny, ponieważ udostępnia znormalizowany sposób komunikowania się komputerów ze sobą. Określa on formę żądań klienta dotyczących danych oraz formę odpowiedzi serwera na te żądania. Jest zaliczany do protokołów bezstanowych (ang. stateless) z racji tego, że nie zachowuje żadnych informacji o poprzednich transakcjach z klientem (po zakończeniu transakcji wszystko "przepada"). Pozwala to znacznie zmniejszyć obciążenie serwera, jednak jest kłopotliwe w sytuacji, gdy np. trzeba zapamiętać konkretny stan dla użytkownika, który wcześniej łączył się już z serwerem. Najczęstszym rozwiązaniem tego problemu jest wprowadzenie mechanizmu cookies. Inne podejścia to m.in. sesje po stronie serwera, ukryte parametry (gdy aktualna strona zawiera formularz) oraz parametry umieszczone w URL-u. HTTP standardowo korzysta z portu nr 80 (TCP).
HTTPS (ang. HyperText Transfer Protocol Secure) to szyfrowana wersja protokołu HTTP. Zamiast używać w komunikacji klient-serwer niezaszyfrowanego tekstu, szyfruje go za pomocą technologii SSL. Zapobiega to przechwytywaniu i zmienianiu przesyłanych danych. HTTPS działa domyślnie na porcie nr 443 w protokole TCP. Wywołania tego protokołu zaczynają się od https:, a zwykłego połączenia HTTP od http:. Protokół HTTP jest warstwę wyżej (na transporcie SSL), najpierw następuje więc wymiana kluczy SSL, a dopiero później żądanie HTTP. Powoduje to, że jeden adres IP może serwować tylko jedną domenę lub też tylko subdomeny danej domeny (zależnie od certyfikatu). TLS (ang. Transport Layer Security) – przyjęte jako standard w Internecie rozwinięcie protokołu SSL (ang. Secure Socket Layer), w swojej pierwotnej wersji zaprojektowanego przez firmę Netscape Communications Corporation. TLS ma na celu zapewnienie poufności i integralności transmisji danych oraz zapewnienie uwierzytelnienia, opiera się na szyfrach asymetrycznych oraz certyfikatach standardu X.509. Zaletą protokołu jest fakt, że działa on na warstwie TCP, więc można go łatwo zastosować do zabezpieczenia protokołów warstwy aplikacyjnej (np.: telnet, HTTP, gopher, POP3, IMAP, NNTP).
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01//EN" "http://www.w3.org/TR/html4/strict.dtd"> <html lang="pl"> <head> <meta http-equiv="Content-Type" content="text/html; charset=UTF-8"> <title>Tytuł strony</title> </head> <body> <h1>Nagłówek pierwszego poziomu</h1> <p> Akapit (z ang. paragraph)<br> i jeszcze trochę tekstu w następnym wierszu<br> <a href="http://pl.wikipedia.org"> a to link do Wikipedii.</a> </p> </body> </html> HTML (ang. Hyper Text Markup Language, pl. hipertekstowy język znaczników), to język składający się ze znaczników (ang. tags) oraz reguł ich poprawnego stosowania (gramatyki, syntaktyki), stosowany do pisania stron WWW. Wraz z rozwojem sieci WWW, a zwłaszcza jej upowszechnianiem, pojawiła się potrzeba dołączania do tekstów tabel, grafiki i plików multimedialnych, w wyniku czego zaczęły powstawać kolejne wersje HTML-u. Wersje te były rozwijane przez firmy produkujące przeglądarki stron WWW, bez wzajemnych konsultacji, co doprowadziło do częściowej niekompatybilności wersji HTML-u zaimplementowanych w przeglądarkach różnych producentów. Próbą odpowiedzi na tę sytuację było stworzenie W3C czyli World Wide Web Consortium, organizacji która zajmuje się ustanawianiem wspólnych standardów HTML-u, a także innych zagadnień związanych z pisaniem stron WWW. Jego pierwsza wersja została opracowana przez Tima Berners-Lee w 1989 roku, który w tym czasie był konsultantem do spraw oprogramowania pracującym dla CERN.
JavaScript JavaScript jest nowym językiem skryptowym dla dokumentów internetowych. Skrypty napisane za pomocą JavaScript mogą być umieszczane bezpośrednio na stronach HTML. Język daje obszerne możliwości wzbogacania stron w interesujące elementy. Na przykład można zdefiniować reakcję na zainicjowane przez czytelnika działania. Niektóre efekty jeszcze niedawno były możliwe jedynie przy użyciu CGI, teraz również w JavaScript. • <html> • <head> • <script language="JavaScript"> • function pushbutton() { alert("Hello!"); } • </script> • </head> • <body> • <form> <input type="button" name="Button1" • value="Naciśnij mnie" onclick="pushbutton()"> • </form> • </body> • </html> • <html> • <head> My first JavaScript! </head> • <body> <br> To jest normalny dokument HTML. <br> • <script language="LiveScript"> • document.write("To jest JavaScript!") • </script> • <br> I znowu dokument HTML. • </body> • </html>
CGI (ang. Common Gateway Interface) to znormalizowany interfejs, umożliwiający komunikację pomiędzy oprogramowaniem serwera WWW a innymi programami znajdującymi się na serwerze. Zazwyczaj program serwera WWW wysyła do przeglądarki statyczne dokumenty HTML. Za pomocą programów CGI można dynamicznie (na żądanie klienta) generować dokumenty HTML uzupełniając je np. treścią pobieraną z bazy danych. Kaskadowe arkusze stylów (ang. Cascading Style Sheets, CSS) to język służący do opisu sposobu renderowania stron WWW. CSS został opracowany przez organizację W3C w 1996 r. Arkusz stylów CSS to lista dyrektyw (tzw. reguł) ustalających w jaki sposób ma zostać renderowana przez przeglądarkę internetową zawartość wybranego elementu (lub elementów) (X)HTML lub XML. XML (ang. Extensible Markup Language) to uniwersalny język formalny przeznaczony do reprezentowania różnych danych w ustrukturalizowany sposób. XML jest niezależny od platformy, co umożliwia łatwą wymianę dokumentów pomiędzy różnymi systemami i znacząco przyczyniło się do popularności tego języka w dobie Internetu. XHTML (ang. Extensible HyperText Markup Language, rozszerzalny hipertekstowy język znaczników) jest to język służący do tworzenia stron WWW ogólnego przeznaczenia. XHTML jest następcą języka HTML. Specyfikacje XHTML przygotowuje organizacja W3C. PHP– refleksywny skryptowy język programowania zaprojektowany do generowania dynamicznych stron internetowych. PHP najczęściej interpretuje skrypty po stronie serwera WWW, ale może być również używany z poziomu wiersza poleceń oraz w aplikacjach pracujących w trybie graficznym za pomocą biblioteki GTK+.
World Wide Web Consortium, w skrócie W3C, to organizacja, która zajmuje się ustanawianiem standardów pisania i przesyłu stron WWW. Została założona 1 października 1994 roku przez Tima Berners-Lee, twórcę WWW oraz autora pierwszej przeglądarki internetowej i serwera WWW. • Najważniejsze zagadnienia, którymi zajmowała się lub zajmuje W3C • HTML/XHTML/XForms - podstawowy język znaczników, stosowany do pisania stron WWW, • CSS - kaskadowe arkusze stylów, • DOM - Document Object Model - ustanowienie jednolitego systemu, w jaki sposób przeglądarki zarządzają wyświetlaniem i indeksowaniem elementów stron WWW, • XML - język znaczników, na podstawie którego tworzone są aplikacje XML, • HTTP - protokół przesyłania stron WWW, • SVG - Scalable Vector Graphics - ogólny format grafiki wektorowej, która ma zastąpić technologię Flash, • SMIL/TimeText - Synchronized Multimedia Integration Language - język, przy pomocy którego (wewnątrz XML) będzie można swobodnie manipulować plikami multimedialnymi i tekstem, • XSL/XSLT/XPath/XPointer - style, transformacje i inne techniki z tym związane, • WAI - dostępność stron WWW, • i wiele, wiele innych.
Mimo nowych możliwości jakie dają komunikatory, e-mail ciągle zyskuje na popularności i znaczeniu. Z badań rynku przeprowadzonych przez IDC wynika, że w roku 2005 można się spodziewać 36 miliardów e-maili dziennie! W roku 2000 w użyciu było około 505 milionów skrzynek poczty elektronicznej, w roku 2005 tą formą komunikacji ma się już posługiwać ok. 1,2 mld użytkowników. Wszystko zaczęło się w roku 1971 w sposób, który trudno byłoby nazwać spektakularnym. Technik w BBN, Ray Tomlinson, przesłał e-mail między dwoma komputerami, które były połączone w sieci ARPAnet. Poszukując rzadko używanego znaku dla wyróżnienia poczty elektronicznej odkrył @ i w ten sposób ustanowił symbol nowej epoki. Kolejnym krokiem milowym w historii poczty elektronicznej było opracowane w roku 1981 przez Erica Allmana oprogramowanie Sendmail. Umożliwiło ono po raz pierwszy wysyłanie za pomocą programu pocztowego wiadomości jednocześnie do wielu sieci. Dzisiejszy sukces e-maila był nie do przewidzenia w roku 1971 i wynalazek Thomlinsona zasłużył sobie tylko na kilka wzmianek w prasie. Dziś nie sposób wyobrazić sobie życia bez poczty elektronicznej, a dla wielu ludzi jest ona wręcz warunkiem funkcjonowania. Poczta elektroniczna opiera się na trzech protokołach - SMTP do wysyłania oraz POP i IMAP do odbioru. Specyfikację każdego protokołu opisano w jednym lub kilku dokumentach RFC.
E-MAIL IMAP (Internet Message Access Protocol) to internetowy protokół pocztowy zaprojektowany jako następca POP3. W przeciwieństwie do POP3, który umożliwia jedynie pobieranie i kasowanie poczty, IMAP pozwala na zarządzanie wieloma folderami pocztowymi oraz pobieranie i operowanie na listach znajdujących się na zdalnym serwerze. IMAP pozwala na ściągnięcie nagłówków wiadomości i wybranie, które z wiadomości chcemy ściągnąć na komputer lokalny. Pozwala na wykonywanie wielu operacji, zarządzanie folderami i wiadomościami. WebMail WebMail to rozwiązanie idealne dla podróżujących. Do obsługi poczty wystarczy dowolna przeglądarka Internetowa. Po prostu wpisujemy adres serwera WebMail obsługującego naszą skrzynkę, a po połączeniu przedstawiamy się (login, nazwa użytkownika) i podajemy hasło. Wadą może być konieczność utrzymywania połączenia z Internetem przez cały czas w trakcie czytania i pisania listów (w przypadku połączenia stałego w firmie czy na uczelni nie stanowi to problemu). Niewątpliwą zaletą jest natomiast fakt, że nie pozostawiamy po sobie żadnych konfiguracji albo zapomnianych haseł.
POP3 to aktualna wersja standardu Post Office Protocol. Nie chodzimy na pocztę, lecz łączymy się na krótko z serwerem, ,,bierzemy'' czekające na nas listy, po czym się rozłączamy. Czytamy je i redagujemy odpowiedzi bez konieczności utrzymywania połączenia z Internetem, co w przypadku łączenia przez modem daje znaczące oszczędności. Potem łączymy się znów na krótko5.4, by wysłać przygotowane odpowiedzi.
Zagrożenia płynące z Internetu • Bezpieczeństwo to zagadnienie istotne zarówno dla firm jak i dla indywidualnych użytkowników. Internet to znakomite narzędzie zarówno do dystrybucji informacji o sobie jak i otrzymywaniu ich od innych, jednak z wszelkimi dobrodziejstwami globalnej sieci związana jest również pokaźna liczba zagrożeń. Przestępstwa komputerowe takie jak kradzież informacji czy celowe niszczenie danych to tylko niektóre z nich. • Najlepszym sposobem uniknięcia takiego biegu wydarzeń jest podjęcie działań prewencyjnych związanych z pozbawieniem możliwości uzyskania dostępu przez sieć do maszyny. To pole zastosowań dla firewalli (ścian ogniowych, zapór ogniowych). • Ogólnie metody włamań można podzielić na: • ataki z zewnątrz sieci lokalnej • ataki z wnętrza sieci lokalnej • ataki pośrednie
Ataki z zewnątrz • Są to ataki, których najczęstszą formą są zakłócenia stabilnej pracy. Przejmowanie kontroli nad systemami odbywa się z zewnątrz sieci lokalnej, na przykład z Internetu. Można w tym celu wykorzystać lukę w systemie zabezpieczeń, błąd serwisu sieciowego lub po prostu słaby poziom zabezpieczeń firmy. Do najczęstszych tego typu ataków należą: • Ataki na poszczególne komputery, bądź serwer główny - to jeden z najczęstszych typów ataków. Konsekwencjami są zwykle przerwy w pracy sieci lokalnej, uszkodzenie poszczególnych (bądź wszystkich) końcówek serwera, a co za tym idzie, całej sieci; co powoduje wielogodzinne przerwy w pracy. • Ataki na serwer http - to ataki, których efektem jest utrata danych witryny internetowej lub uzupełnienie jej treściami kompromitującymi firmę.
Spoofing (maskarada) Metoda ta stosowana jest zwykle przez doświadczonych i wyrafinowanych włamywaczy. Polega na podszyciu się włamywacza pod jednego z użytkowników systemu, który posiada własny numer IP (numer identyfikujący użytkownika). Technika ta ma na celu omijanie wszelkich zabezpieczeń, jakie zastosował administrator w sieci wewnętrznej. Jest bardzo skuteczna nawet, gdy bywa wykorzystywana przeciwko markowym firewallom, switchom i ruterom. Dzięki niej możliwe jest "udawanie" dowolnego użytkownika, a co za tym idzie "podszywanie" się i wysyłanie sfałszowanych informacji. Ze swego komputera haker może dokonać przekierowania źródłowego adresu IP i "podszyć się" pod komputer sieciowy.
Ataki z wnętrza sieci Ataki z wnętrza sieci należą do jednych z groźniejszych. Włamanie następuje z wnętrza sieci lokalnej poprzez wykorzystanie konta jakiegoś użytkownika, czy też luki w zabezpieczeniach systemu autoryzacji użytkowników. Najczęściej włamania tego typu są udziałem pracowników firmy, a nie użytkowników komputerów spoza jej obrębu, gdyż dostęp do końcówki Sieci takiej osoby rzadko pozostaje zauważony. Ataki pośrednie Hakerzy stosują tu dość wyrafinowane metody, czego najlepszym przykładem są konie trojańskie. To grupa ataków najtrudniejszych do wykrycia. "Podłożenie" konia trojańskiego otwierającego dostęp do całej sieci może odbyć się za pośrednictwem poczty elektronicznej czy też podczas ściągania programu, który pochodzi z niepewnego źródła. Użytkownik prawie nigdy nie jest świadom tego, że ściągając na przykład najnowszą wersję odtwarzacza plików mp3 faktycznie otwiera dostęp do swojego komputera, a potem całej Sieci osobom niepowołanym.
Packet sniffing (podsłuchiwanie pakietów) Jest to metoda zdobywania systemu polegająca na przechwytywaniu przesyłanych przez sieć niezaszyfrowanych informacji. Można w ten sposób zdobyć hasło użytkownika i uzyskać dostęp do danego konta. Ataki polegające na "biernym węszeniu" stały się powszechne w Internecie. Stanowią one zazwyczaj wstęp do aktywnego przechwytywania cudzych plików. Aby rozpocząć tego rodzaju atak, haker musi zdobyć identyfikator i hasło legalnego użytkownika, a następnie zalogować się do Sieci. Kiedy wykona już te posunięcia, może bezkarnie podglądać i kopiować transmisje pakietów, zdobywając jednocześnie informacje o funkcjonowaniu danej sieci lokalnej. Ataki korzystające z autoryzowanego dostępu Są to ataki często stosowane przez osoby próbujące się włamać do sieci opartych na systemie operacyjnym, korzystającym z mechanizmu autoryzowanego dostępu (takim jak UNIX, VMS i Windows NT). Duże niebezpieczeństwo niesie ze sobą tworzenie plików zawierających nazwy serwerów, do których można uzyskać dostęp bez podawania hasła.
Czym jest firewall? Firewall składa się z pewnej liczby komponentów sieciowych (sprzętowych i programowych) w punkcie styku dwóch sieci. Zapewnia zachowanie reguł bezpieczeństwa między siecią prywatną, a niezabezpieczoną siecią publiczną, na przykład Internetem. Właśnie ta zapora decyduje, które z usług w sieci prywatnej dostępne są z zewnątrz i z jakich usług niezabezpieczonej sieci publicznej można korzystać z poziomu sieci prywatnej. Aby firewall był skuteczny, cały ruch danych między siecią prywatną a Internetem musi przechodzić przez niego. Firewall nie jest, jak router, bastion host czy inne urządzenie, częścią sieci. Jest jedynie komponentem logicznym, który oddziela sieć prywatną od publicznej. Bez firewalla każdy host w sieci prywatnej byłby całkowicie bezbronny wobec ataków z zewnątrz.