środa, 20 lipca 2011

Czego nie wiemy jeszcze o naziemnej telewizji cyfrowej?

Autorem artykułu jest Igor Iksiński


Naziemna telewizja cyfrowa daje wiele możliwości, a jak sama nazwa wskazuje - to telewizja wykorzystująca nadajniki umieszczone na ziemi (na wzniesieniach lub wysokich budynkach), a nie przekaz z satelity. Dotychczas naziemna telewizja nadawana była wyłącznie w sposób analogowy.

Naziemna telewizja cyfrowa daje wiele możliwości, a jak sama nazwa wskazuje - to telewizja wykorzystująca nadajniki umieszczone na ziemi (na wzniesieniach lub wysokich budynkach), a nie przekaz z satelity. Dotychczas naziemna telewizja nadawana była wyłącznie w sposób analogowy. Obecnie systematycznie wprowadzany jest przekaz cyfrowy, który do 2013 roku ma całkowicie zastąpić sygnał analogowy. DVB-T - tak nazywa się standard, w jakim nadawana jest telewizji cyfrowa w Polsce i innych krajach europejskich (pamiętać jednak musimy, że nie w każdym kraju obowiązuje ten sam standard DVBT i np. telewizor zakupiony w Niemczech lub Czechach nie będzie odbierał sygnału telewizji w naszym kraju gdyż te telewizory mają wbudowany starszy dekoder MPEG2 - a ten nie pozwoli odbierać sygnału DVB-T w Polsce).

Do tej pory z cyfrowej telewizji mogliśmy korzystać jedynie płacąc albo operatorom satelitarnym albo kablowym. Teraz telewizja cyfrowa wreszcie będzie dostępna dla wszystkich odbiorców za pomocą zwykłej anteny, z której korzystaliśmy dotąd i za pomocą odbiorników telewizyjnych z wbudowanym tunerem telewizyjnym typu DVB-T MPEG-4 H 264/AVC lub starszych modeli telewizorów, lecz wówczas będziemy musieli dokupić zewnętrzny tuner dvb-t MPEG-4.

Obecnie na rynku polskim oferowane są coraz częściej nowoczesne produkty do odbioru naziemnej telewizji cyfrowej i to zarówno telewizory, odtwarzacze dvd jak i zewnętrzne tunery telewizyjne. Pamiętajmy jednak, aby sprawdzić informację czy są to umożliwiające dekodowanie sygnału cyfrowego w standardzie polskim DVBT MPEG-4 H264/AVC.

Jakie zalety daje nam naziemna telewizja cyfrowa? Oto tylko kilka z nich. Przede wszystkim za telewizję kablową lub satelitarną musimy zapłacić - DVB-T dostajemy za darmo. Nie musimy płacić żadnego abonamentu dla operatora (poza standardowym abonamentem RTV). O wiele więcej zalet ma telewizja DVB-T w porównaniu do analogowego przekazu "z powietrza" biorąc tez jakość przekazu, nie ma zniekształceń obrazu, śnieżenia a przede wszystkim uzyskujemy znacznie lepsza jakość dźwięku. Nie bez znaczenia jest tez znacznie większa ilość nadawanych programów, które będą nadawane w tzw. multipleksach (zestaw kilku kanałów). Pierwszy multipleks, który już działa zawiera kilka kanałów. Są to: TVP1, TVP2, TVP Info, TVN, TVN7, Polsat, Polsat NEWS Sport, TV 4, TV Puls, TVN Warszawa (kanał regionalny w zależności od nadajnika). W późniejszym czasie uruchomione zostaną kolejne multipleksy. Docelowo w całej Polsce ma być ok. 30 kanałów w emisji cyfrowej które będzie można odbierać drogą naziemną.

Pamiętać musimy jeszcze, że ostateczne wyłączenie analogowych nadajników planowane jest na 31 lipca 2013 roku (choć pierwsze wyłączenia przewidziane są już w roku 2011) - wtedy widzowie stracą ostatecznie możliwość oglądania telewizji analogowej wyłącznie za pomocą starego telewizora i starej anteny dachowej.

---

idziik

Artykuł pochodzi z serwisu www.Artelis.pl

sobota, 2 lipca 2011

Super wizja - nowa jakość telewizji wysokiej rozdzielczości

Autorem artykułu jest Katarzyna G.


Japończycy wyprzedzają o krok resztę świata w zagadnieniach związanych z telewizją i multimediami. W momencie, gdy Europejczycy z zachwytem patrzą na kolejne kanały uruchamiane w rozdzielczości High Definition, mieszkańcy Kraju Kwitnącej Wiśni odczuwają znużenie przestarzałą już technologią HD.

Pod koniec września 2010 roku światłowody na trasie Londyn - Tokio rozgrzały się do czerwoności. Po raz pierwszy w historii miała miejsce transmisja na żywo sygnału w rozdzielczości Super Hi-Vision.


Japońscy fani brytyjskiego zespołu The Charlatans obejrzeli ich koncert podziwiając jednocześnie formę zespołu, jak i (może bardziej?) jakość dostarczanego obrazu i dźwięku. Japończycy wyprzedzają o krok resztę świata w zagadnieniach związanych z telewizją i multimediami. W momencie, gdy Europejczycy z zachwytem patrzą na kolejne kanały uruchamiane w rozdzielczości High Definition, mieszkańcy Kraju Kwitnącej Wiśni odczuwają znużenie przestarzałą już technologią HD.
Ciekawostką jest fakt, że Japończycy dysponowali możliwościami dystrybucji analogowego sygnału w wysokiej rozdzielczości już pod koniec lat 80-tych poprzedniego stulecia.

00010408

Prezentacja Super Hi-Vision na targach IBC 2010 w Amsterdamie (digitalproductionme.com)


Super Hi-Vision jest opracowanym przez japońską telewizję publiczną NHK standardem wyświetlania obrazu telewizyjnego. Przy pracach nad jego udoskonalaniem i wdrażaniem pomagają również: brytyjskie BBC oraz włoska RAI.

Możliwości standardu są imponujące - obraz wyświetlany jest w rozdzielczości 7680 x 4320 (33 1776 MPix), czyli w 16-krotnie większej rozdzielczości niż obraz w Full HD. Większa jest również liczna klatek, jakie mogą być wyświetlane w ciągu jednej sekundy: 50 lub 60.

Każdy fan kina i telewizji wie, jak wiele wrażeń dostarcza dźwięk. Składową Super Hi-Vision jest technika "Hamasaki 22.2" nazywana w skrócie "22.2", będąca krokiem milowym w przesyłaniu strumieni audio.
Transmisja dźwięku odbywa się na 24 kanałach: 9 kanałów powyżej głowy, 10 kanałów na wysokości głowy, 3 kanały poniżej wysokości głowy, 2 kanały na efekty specjalne o niskich częstotliwościach.
Przy 24 głośnikach określenie "dźwięk przestrzenny" nabiera zupełnie nowego znaczenia. Przy tym standardzie obraz w jakości Full HD wygląda jak rozmyta plama, a jakość dźwięku Dolby Surround przypomina dźwięk z samochodowego odtwarzacza kasetowego.

---

www.dipol.com.pl

Artykuł pochodzi z serwisu www.Artelis.pl

czwartek, 30 czerwca 2011

Pierwszy na świecie telefon w technologii 802.11n

Autorem artykułu jest PiterZG


Ascom wprowadził na rynek nowej generacji VoWi-Fi bez­przewodowy telefon Ascom i62. Rozwiązanie Ascom oznacza niezależność od producenta sieci WLAN, łatwe wdrożenie i skalowalność, jak również zdolność do integracji i komunikowania się z szeroką gamą zewnętrznych źródeł informacji.

Ascom i62Ascom wprowadził na rynek nowej generacji VoWi-Fi bez­przewodowy telefon Ascom i62. Ma on elegancki design, wysokiej rozdzielczości kolorowy wyświetlacz TFT, wysoki stopień ochrony przed wodą i zanieczyszczeniami (IP-44), dłuższy czas pracy baterii oraz wiele innych ulepszeń. Po­dobnie jak pozostałe telefony bezprzewodowe Ascom, i62 ma funkcję zdalnego programowania (OTA) i został prze­testowany do współpracy z różnymi sieciami Wi-Fi. Urządzenie zapewnia bezprzewodowy system transmisji głosu i wiadomości, ma wbudowane alarmy osobiste. Tele­fon pozwala na korzystanie z aplikacji lokalizujących poło­żenie użytkownika oraz na przesyłanie wiadomości, nie­zwykle przydatne zarówno w sytuacjach krytycznych, jak i codziennej pracy.

Ascom i62 to dobre rozwiązanie dla użytkowników dzięki interaktywnemu messagingowi Ascom, który integruje media stacjonarne, bezprzewodowe i mobilne, w tym alarmy i wiadomości, jak również bezprzewodowe systemy komunikacyjne, z publicznymi technologiami komunikacji, taki­mi jak GSM, e mail i internet. Ascom i62 zapewnia kom­patybilność z największymi dostawcami WLAN i dostosowuje swoje funkcje do wymagań. Niezależnie od tego, czy telefon podłączony jest do tradycyjnej centrali telefonicz­nej, czy nowoczesnego IP-PBX, czy przekazuje informacje z systemu przywoławczego, czy też z systemu monitorowania pacjenta, Ascom zapewnia optymalną integrację tych wszystkich systemów.

---

PiterZG

Artykuł pochodzi z serwisu www.Artelis.pl

środa, 29 czerwca 2011

Jak działa GPS?

Autorem artykułu jest Krystian Wójcik


Zamierzeniem projektantów GPS było stworzenie systemu, który byłby w stanie wspierać przede wszystkim amerykańską armię. Obecnie wykorzystujemy tę technologię w wielu dziedzinach cywilnych, chociażby w geodezji, kartografii, lotnictwie oraz transporcie drogowym.

System GPS korzysta z sieci 24 satelitów nawigacyjnych, które znajdują się na orbitach okołoziemskich. Siecią tą zarządza Amerykański Departament Obrony. Jest to najważniejsza i najbardziej zaawansowana część GPS. Każdy satelita nadaje sygnał, który następnie odbierany jest przez odbiorniki. W oparciu o czas dotarcia sygnału z satelitów do odbiornika, ten jest w stanie obliczyć odległość jaka dzieli go do satelity. Oczywiście prędkość rozchodzenia się fali elektromagnetycznej (sygnału satelitarnego) jest znana. Jeżeli odbiornik GPS odbierałby sygnał tylko od jednego satelity, to możliwe byłoby stwierdzenie, że urządzenie to jest umieszczone „w jakimś punkcie” na powierzchni sfery. Dwie satelity ograniczają poszukiwania aktualnej pozycji do miejsca przecięcia dwóch sfer. Teoretycznie do pomiaru pozycji wystarczyłyby trzy satelity, jednak do pomiaru pozycji w trzech wymiarach potrzeby jest również sygnał od czwartej satelity, aby dzięki temu precyzyjnie obliczyć czas.

Do 2000 roku włączony był tzw. mechanizm selective availability. Zadaniem tego mechanizmu było celowe zniekształcanie sygnału GPS, aby precyzja wyznaczania pozycji nie była większa niż 100 m. Jednak jak już wspomniałem w 2000 roku definitywnie wyłączono ten mechanizm. Selective availability dotyczył tylko cywilnych urządzeń GPS!

Korzystanie z GPS jest całkowicie darmowe. Jedyne koszty, które musimy ponieść jeżeli chcemy korzystać z tej technologii, to koszy związane z zakupem odpowiedniego urządzenia. Obecnie najtańsze odbiorniki to koszt w granicach 400 zł. Jeżeli jednak chcemy profesjonalnie wykorzystywać GPS, to taki odbiornik będzie niewystarczający. W zasadzie nie ma górniej granicy cen dla urządzeń współpracujących z tą technologią. Wszystko zależy od rodzajów zastosowań, a dokładniej od precyzji jaka wymagana jest dla pozycjonowania. Jeżeli zastosujemy tzw. stacje referencyjne, to oczywiście precyzja wyznaczania pozycji wzrośnie, ale wzrośnie również cena.

---

Informacje o GPS i nie tylko o tym systemie znajdziesz na: GPS - technologiagps.org.pl

Artykuł pochodzi z serwisu www.Artelis.pl

wtorek, 28 czerwca 2011

Cięcie wodą - obrabianie materiału

Autorem artykułu jest Adrian Rybakowski


Waterjet czyli możliwość przecinania różnych materiałów z wykorzystaniem wody pod wysokim ciśnieniem podawanej wraz z materiałem ciernym.

Cięcie wodą Jest to nowoczesna technologia cięcia oferująca:
- duży zakres grubości ciętych materiałów – do 200 mm
- duża powierzchnia obrabianego materiału – do 1500 x 3000 mm,
- wysoką tolerancję wymiarową – do 0,1 mm
- zachowanie gładkich krawędzi,
- eliminację wgięć i załamań charakterystyczną dla innych technologii cięcia,
- bardzo dużą dokładność dopasowania materiałów obrabianych.
- bardzo szybką obróbkę ciętego materiału

Obrabiane materiały
Technologia cięcia wodą daje możliwość obróbki praktycznie każdego materiału o grubości do 200 mm. Poza elementami z różnego rodzaju metali obrabiać można również materiały budowlane, a w szczególności wykonywanie dekorów z kamienia, czy płytek ceramicznych lub gresowych. Możliwość cięcia różnego rodzaju tworzyw sztucznych, gumy, szkła, sklejki i innych materiałów dekoracyjnych zaspokoi z pewnością potrzeby firm wykonujących reklamy lub dekoracje.
Technologia ta charakteryzuje się brakiem obciążeń: termicznych, mechanicznych i chemicznych obrabianego materiału, jest przyjazna środowisku naturalnemu. Cięcie wodą to doskonałe rozwiązanie do obróbki materiałów trudno obrabialnych, produkcji jednostkowej lub krótkoseryjnej, wykonywania insert.

Przygotowanie produkcji
Obróbki materiałów można dokonać na podstawie rysunków w formacie dwg lub dfx, a także innych formatów pozwalających na zwymiarowanie .

--- Artykuł pochodzi z serwisu www.Artelis.pl

poniedziałek, 27 czerwca 2011

Mini kamera- narzędzie szpiega

Autorem artykułu jest germano


Rozwój technologiczny sprzyja pełnej, sprzętowej miniaturyzacji urządzeń. Obecnie nie stanowi już problemu stworzenie urządzeń, które mimo niewielkich rozmiarów będzie z powodzeniem rywalizowało z konwencjonalnym wyposażeniem szpiegowskim.

Dość znaczący przełom w dziedzinie miniaturyzacji reprezentują kamery przemysłowe a w szczególności rejestratory operacyjne. Wysokiej klasy przetworniki obrazu oraz szerokokątne obiektywy pozwalają na maksymalne zoptymalizowanie jakości otrzymywanego obrazu w najwyższej możliwej rozdzielczości. Odznacza się on klarownością, nasyceniem palety barw oraz pozbawieniem zakłóceń. Obecnie mini kamera szpiegowska może zostać ukryta praktycznie wszędzie. Ograniczeniem jest jedynie wyobraźnia producentów sprzętu szpiegowskiego. Istotną kwestią do rozwiązania jest tylko zagadnienie zasilania urządzenia. Jeśli mówimy o breloku lub zapalniczce to ważne jest aby zdecydować się na zasilanie akumulatorowe. Mimo swoich niewielkich rozmiarów akumulator jest w stanie dostarczyć urządzeniu energii na nawet 4 godziny pracy operacyjnej. Kamera szpiegowska w radio budziku czy zegarku jak najbardziej powinna pobierać zasilanie z sieci tak jak przedmiot który służy jako kamuflaż. Jest to obecnie najlepsze rozwiązanie ponieważ nie wzbudza podejrzeń osób trzecich. Przykładowo zegar na ścianie zasilany jest baterią 1.5V typu ,,paluszek”. Kamera potrzebuje do pracy 5V. W tej sytuacji należy dołożyć dwie sztuki baterii i liczyć się z tym ze będzie trzeba wymieniać baterie w zegarze co kilka dni.

Standardowo urządzenie bez kamery szpiegowskiej pracuje nawet do dwóch miesięcy na jednym paluszku. Warto jest więc ukrywać mini kamery w przedmiotach pobierających zasilanie z sieci elektrycznej. Mowa tutaj o radio budzikach, termometrach mieszkaniowych, czujkach dymu czy ruchu. Sprzęt szpiegowski niewielkich rozmiarów może kupić praktycznie każdy. Atrakcyjne ceny sprawiają, że popyt znacząco wzrasta. Opisywane kamery szpiegowskie coraz częściej posiadają funkcję detekcji. Aktywują się do nagrania z chwilą wykrycia ruchu lub odpowiedniego poziomu dźwięku. Oczywiście rejestrowany obraz jest kolorowy i wzbogacony o strumień audio. Nagrania rejestrowane są na przenośnych kartach pamięci. Najczęściej maksymalna obsługiwana objętość to 16GB. Rozmiar ten pozwala na zgromadzenie około 10 godzin materiału operacyjnego. Warto nadmienić ze kamery te coraz lepiej radzą sobie w warunkach trudnych oświetleniowo.

---

telewizja przemysłowa

Artykuł pochodzi z serwisu www.Artelis.pl

niedziela, 26 czerwca 2011

Monitoring komputera

Autorem artykułu jest germano


W dzisiejszych czasach niemal w każdym gospodarstwie domowym jest już komputer. W połączeniu z Internetem daje on szereg nieograniczonych możliwości.

Pracodawcy oczekują umiejętności obsługi natomiast młodsze pokolenie nie wyobraża sobie bez niego życia. Najczęściej korzystamy z portali społecznościowych, aukcji internetowych oraz aplikacji biurowych. Uogólniając służy on zarówno do rozrywki jak i do pracy.

Internet to także zagrożenie dla każdego z nas a w szczególności dla dzieci. Bardzo łatwo nawiązują nowe kontakty, szybko obdarzają zaufaniem a takie postępowanie bardzo często może prowadzić do przykrości oraz bardzo smutnych wydarzeń. Trudno jest pilnować co robi pociecha w sieci a jeszcze trudniej wykonywać to dyskretnie. Dlatego atrakcyjnym rozwiązaniem będzie podsłuch komputera (keylogger). Zazwyczaj ma on postać małej, niepozornej elektronicznej przystawki. Urządzenie to skrupulatnie rejestruje poczynania użytkownika komputera. Jest w stanie z łatwością zapamiętać każdy naciśnięty klawisz , po czym zestawić wszystko w logiczny tekst. Zapisane zostaną treści rozmów z komunikatorów internetowych, adresy odwiedzanych witryn a także w razie konieczności zdjęcia ekranu monitora.

Keylogger to także bardzo przydatne narzędzie w czasie samodzielnej pracy przy komputerze. W sytuacji utraty wartościowych plików tekstowych (np. praca magisterska) można wszystko bez najmniejszego problemu odtworzyć. Dodatkowo podsłuchy komputera mogą być stosowane przez pracodawcę w celu kontroli zatrudnionych osób. To niewielkie urządzenie bezbłędnie i bezwzględnie ujawni czym zajmuje się pracownik w czasie pobytu w firmie.

---

GERMANO.COM.PL

Artykuł pochodzi z serwisu www.Artelis.pl

Internet stacjonarny, czy mobilny?

Autorem artykułu jest Tomasz Galicki


Dostęp do Internetu posiada dzisiaj praktycznie każdy. Sieć stwarza nam wachlarz właściwie niczym nie ograniczonych funkcji, takich jak wysłanie e-maili, komunikowanie się na odległość w czasie rzeczywistym, tworzenie i dzielenie się własną treścią, jak również jej czytanie. Jednym słowem – bez internetu ciężko jest się obejść.

Powstają specjalne programy, które obejmują instalację sieci w szkołach, bibliotekach zarówno w mniejszych, jak i w większych miastach, słyszy się też o pomyśle stworzenia darmowego internetu, który byłby dostępny wszędzie. Prawda jest jednak taka, że zbyt szybko to nie nastąpi. Jak w takim razie ma poradzić sobie ktoś, kto jeszcze dostępu do globalnej sieci nie posiada, a jest mu ona niezbędna do nauki czy komunikowania się? Możliwości jest kilka. Na obszarach miejskich, gdzie infrastruktura i okablowanie są dobrze rozwinięte najlepszym rozwiązaniem będzie szybki internet z nieograniczonym transferem. Koszty instalacji jak i późniejszej eksploatacji zależą właściwie od naszego usługodawcy. Możemy się zdecydować na jakąś popularną ofertę albo też skorzystać z propozycji internetu osiedlowego. W obu przypadkach tego typu usługa będzie nam stwarzała możliwości nieograniczonego ściągania plików i szybkiego przeglądania stron. Zwykle też, dzięki zamontowaniu dodatkowego routera, internet może być rozdzielony przewodowo lub bezprzewodowo na wiele komputerów w domu, czy w jego niedalekiej odległości.

Jednak usługodawcy poznali potrzeby również osób, które nie mogą lub nie chcą sobie pozwolić na internet przewodowy. Powody są co najmniej dwa. Pierwszy to mobilność – ludzie często się przemieszczają, czy to pociągiem, czy innym środkiem transportu i potrzebują stałego dostępu do internetu, aby w ten sposób załatwiać wszystkie ważne sprawy. Drugi to ograniczenia wynikające z miejsca zamieszkania. Często jest tak, że obszary wiejskie nie zostały jeszcze objęte programem „usieciowania” i nie posiadają odpowiedniej infrastruktury. W obu przypadkach doskonałym rozwiązaniem okaże się internet mobilny. Można z niego korzystać zarówno na komputerze stacjonarnym, jak i na laptopie – wszystko zależy od nas. Minęły już czasy, kiedy jego koszty były tak wysokie, że mogli sobie na niego pozwolić jedynie biznesmeni. Dziś w internet mobilny zaopatrują się studenci, przedsiębiorcy, ale też ludzie, którzy głównie ze względów technicznych nie mogą sobie pozwolić na lepsze rozwiązanie. Jego zaletą jest również fakt, że proponowane są coraz większe szybkości, które wcale nie są gorsze od tych, które proponuje się przy internecie stacjonarnym.

---

T.G.

Artykuł pochodzi z serwisu www.Artelis.pl

Czym się różnią dyski SSD od tradycyjnych dysków twardych i co z tego wynika

Autorem artykułu jest Krzysztof Kurilec


Być może słyszałeś już o dyskach SSD.
Być może intryguje Cię o co tyle szumu.
Być może chciałbyś się dowiedzieć więcej - czym się różnią dyski SSD od zwykłych i dlaczego warto rozważyć zakup dysku SSD.

Aby wyjaśnić na czym polega różnica, muszę opisać jak zbudowany jest tradycyjny dysk twardy.

Być może zastanawiałeś się skąd w ogóle wzięła się nazwa „dysk twardy”.

W czasach, gdy dyski twarde powstawały, alternatywnym nośnikiem magnetycznym, na którym można było zapisywać dane, były dyskietki. Pierwsze dyskietki nie miały twardych plastikowych obudów, jak dyskietki 3.5”, które może jeszcze pamiętasz. Dawna dyskietka to był krążek folii magnetycznej opakowany w grubszą plastikową okładkę. Okładka była tak zrobiona, że krążek w środku mógł się swobodnie obracać. Głowica, która zapisywała i czytała informacje miała dostęp do krążka przez okienko w okładce. Całość była miękka i elastyczna – stąd angielska nazwa „floppy disk”.

Dyski twarde (ang. Hard disks) były z zewnątrz metalowym „klockiem”. W środku były również krążki magnetyczne – tu nazywane talerzami, które nie były z miękkiej folii, ale z twardego materiału. Dyski miały zwykle kilka talerzy, osadzonych na jednej osi, po obydwu stronach których poruszały się głowice odczytująco-zapisujące.

Informacje na talerzach były zapisywane na koncentrycznie ułożonych ścieżkach, które były podzielone na sektory (typowa wielkość to 512 bajtów). Tak więc, aby odczytać jakąkolwiek informację trzeba wiedzieć na którym talerzu, na której ścieżce oraz w którym sektorze ona się znajduje.

Na każdym dysku, zarówno twardym jak i na dyskietkach, jest obszar zwany katalogiem – to miejsce, gdzie zapisane jest, jakie pliki znajdują się na dysku oraz gdzie dokładnie (talerz, ścieżka, sektor) są one leżą.

Tak więc, aby odczytać plik z dysku, głowice najpierw muszą przesunąć się do obszaru katalogu, żeby dowiedzieć się gdzie fizycznie na dysku leży plik – często jest pofragmentowany i poszczególne jego części są porozrzucane po całej powierzchni dysku - by dopiero potem po kolei odnaleźć te miejsca i odczytać potrzebne informacje. Wszystko to trwa a procesor czeka…

Dyski twarde są o wiele szybsze od dyskietek, bo obracają się z dużo większą prędkością, głowice również przesuwają się dużo szybciej niż w przypadku napędów dyskietek.

Ciekawe jest to, że zasada działania dysków nie zmieniała się od kilkudziesięciu lat – zmieniały się ich wymiary (nie wiem, czy ktoś pamięta jeszcze dyski 5.25” o pojemności 20MB a pierwsze dyski miały wielkość pralek i pojemność też 20MB), rosły pojemności, zwiększano szybkości obrotowe.

W tym czasie procesory przechodziły istną rewolucję – ich prędkość na przestrzeni kilkudziesięciu lat wzrosła kilkaset a może kilka tysięcy razy. Szybkości dysków też rosły, ale w o wiele wolniejszym tempie.

Tak więc doszliśmy to sytuacji, gdy to dysk twardy jest wąskim gardłem we współczesnym komputerze. Mamy super szybkie komputery z ogromnymi, ale super wolnymi dyskami.
Gdy super szybki procesor potrzebuje danych z dysku musi czekać, czekać, czekać, bo zasada działania dysku jest wciąż ta sama. Głowica musi najpierw „zajrzeć” do katalogu a potem odszukać i odczytać wszystkie fragmenty pliku.

Trudno mieć pretensje do firm produkujących procesory, że produkują coraz szybsze procesory – technologia pozwalała im na tak szybki rozwój. Firmy produkujące dyski mają o wiele większe ograniczenia – fizyki oszukać się nie da.

Ale właśnie ten sam rozwój technologii spowodował, że pojawiły się na rynku dyski SSD (Solid State Drive) czyli dyski półprzewodnikowe - dyski pozbawione zupełnie elementów mechanicznych. Jedyna mechanika to złącza.

W dysku SSD nie ma talerzy, nie ma głowic - nic się nie kręci, nic się nie rusza. Dysk SSD to pamięć Flash, którą znamy już z pen-drive’ów czy kart pamięci do aparatów fotograficznych, która ma tę kapitalną cechę, że zachowuje zawartość również po odłączeniu zasilania.

Szybkość dysków SSD jest nawet kilkadziesiąt razy większa od dysków tradycyjnych.

Co to oznacza w praktyce ?

System Windows zamiast kilka minut – startuje w kilkanaście sekund. Hibernacja trwa wielokrotnie szybciej. Komputer nie ma już „zadyszek” gdy przez chwilę na nic nie reaguje a lampka dysku pali się non-stop. Programy ładują się w oka mgnieniu. Otwarcie czy zapisanie dokumentu trwa sekundę. Mając w komputerze dysk SSD w praktyce nigdy nie czekasz aż coś się uruchomi, wczyta czy zapisze.

Dysk SSD nie hałasuje i jest odporny na wstrząsy. Możesz przenosić włączony komputer nie martwiąc się, że wstrząsy mogą zaszkodzić dyskowi.

Dla wygody nas-użytkowników dyski SSD mają postać tradycyjnych dysków - montuje się je jak standardowy dysk twardy, podłącza do tych samych kabelków, przykręca w tym samym miejscu tymi samymi śrubkami.

Czy dyski SSD nie mają wad ?

Oczywiście mają. Pierwsza zasadnicza to cena – pomimo, że systematycznie spada, dysk SSD nadal jest kilka razy droższy od tradycyjnego. Ciekawe, że wszyscy, których znam, którzy zainwestowali w dyski SSD twierdzą, że to była najlepsza inwestycja w ich komputer, który zmienił się nie do poznania.

Druga wada wynika stąd, że jak wiadomo pamięć flash „zużywa się” przy każdym zapisie – fizyki się nie oszuka. Im więcej zapisów na dysk SSD tym krócej będzie służyć. Producenci dysków SSD stale doskonalą swoje konstrukcje i dają coraz dłuższe gwarancje (nawet 5 lat). Wada ta w praktyce traci więc na znaczeniu.

Należy pamiętać, że dyski tradycyjne też są zawodne – z czasem pojawiają się tzw bad sektory, psuje się mechanika albo elektronika. Dysk twardy bardzo łatwo jest uszkodzić przenosząc włączony komputer.

Warto dodać przy tej okazji, że niezależnie od tego, jakiego typu dysk masz w komputerze, dbanie o to, by mieć zawsze kopię danych to podstawowy obowiązek każdego odpowiedzialnego użytkownika komputera.

Zachęcam Cię do wymiany dysku w swoim komputerze na dysk SSD a jeżeli zamierzasz zakupić nowy komputer, wybierz komputer z dyskiem SSD i słabszym procesorem niż z tradycyjnym dyskiem i super szybkim procesorem. Warto!

---

Krzysztof Kurilec
www.lsb.pl

Artykuł pochodzi z serwisu www.Artelis.pl

sobota, 25 czerwca 2011

Czy telefon może uratować życie?

Autorem artykułu jest Med Adviser


Aparat telefoniczny to jedno z tych urządzeń, które zyskując z biegiem czasu coraz to nowe kształty i funkcjonalności stało się jednym z najpowszechniejszych urządzeń na kuli ziemskiej. Obecnie nikt nie jest w stanie wyobrazić sobie życia bez telefonu i możliwości jakie nam daje to niewielkie aczkolwiek zmyślne urządzenie.

Bycie w ciągłym kontakcie z bliskimi, przyjaciółmi, rodziną i znajomymi to coś o czym ludzie przed XIX wiekiem mogli tylko pomarzyć. Teraz każdy z nas posiada w domu co najmniej jeden telefon stacjonarny i telefon komórkowy – ile aparatów tyle możliwości kontaktu ze światem. Niewielu z nas zdaje sobie jednak sprawę, że obecnie istniejące telefony komórkowe i stacjonarne – przeznaczone do użytku domowego oprócz standardowej funkcjonalności – komunikowania nas z otoczeniem, mogą również stanowić nieocenioną pomoc w nagłych sytuacjach, bynajmniej nie za sprawą możliwości wybrania numeru alarmowego z klawiatury ale za sprawą systemu szybkiego wezwania pomocy specjalnie dedykowanym przyciskiem alarmowym.

Współczesne telefony bezprzewodowe i przewodowe posiadają specjalnie programowane przyciski szybkiego wybierania. Pod każdym takim klawiszem możemy zapisać dowolny numer telefonu np. straży pożarnej, pogotowia lub kogoś bliskiego, a nawet w celu lepszej identyfikacji zamieścić zdjęcie np. kogoś z rodziny. W razie nagłej sytuacji, zasłabnięcia, złego samopoczucia lub innego zdarzenia, wystarczy, że naciśniemy tylko jeden przycisk, a telefon sam zadzwoni pod zdefiniowany wcześniej w pamięci numer. Korzyść z takiego rozwiązania jest oczywista – w razie wypadku, osłabieni, będąc w stresie wywołanym nieprzewidzianą sytuacją nie musimy pamiętać numeru do rodziny, na pogotowie lub do lekarza rodzinnego – najważniejsze w tym momencie jest wezwanie pomocy – jednoprzyciskowe, bezpośrednie wybranie numeru telefonu to skuteczne rozwiązanie dla osób starszych, mieszkających samotnie z dala od rodziny lub niepełnosprawnych o ograniczonej ruchomości kończyn lub mobilności.

Projektanci i producenci poszli jednak o krok dalej oferując użytkownikom telefony komórkowe z systemem reagowania w nagłych sytuacjach, wyposażone w tzw. Przycisk bezpieczeństwa SOS – specjalny klawisz pod którym możemy zaprogramować dowolny numer telefony – w razie nagłej sytuacji, kiedy chcemy wezwać pomocy wystarczy że naciśniemy charakterystyczny przycisk umieszczony zazwyczaj w tylnej części obudowy, a telefon sam zadzwoni pod wcześniej zdefiniowany numer.

Czy więc telefon może uratować życie? Z pewnością możemy stwierdzić, że współczesny aparat telefoniczny wyposażony w rozbudowaną funkcjonalność może stać się naszym aniołem stróżem w sytuacji zagrożenia życia, ułatwić wezwanie pomocy, a w efekcie być może uratować nam życie, kiedy liczy się szybkość i sprawność reakcji.

---

W razie pytań dot. funkcjonalności aparatów telefonicznych zapraszamy na www.telplanet.pl lub www.sklepikseniora.pl

Artykuł pochodzi z serwisu www.Artelis.pl