niedziela, 18 listopada 2007

Vista 16% wolniejszy od XP

Microsoft Vista miał się prezentować bardziej okazale od systemu Apple. Tymczasem okazało się, że funkcjonalnością i szybkością nie dorównuje nawet swemu poprzednikowi - Windowsowi XP.

Wprowadzając na rynek swój najnowszy system, Microsoft podkreślał wielokrotnie, iż wraz z poprawą jego walorów wizualnych obsługa będzie jeszcze wygodniejsza i szybsza dla użytkownika. O ile trudno obiektywnie ocenić wygląd systemu (w końcu o gustach się nie dyskutuje), o tyle jego funkcjonalność da się już zmierzyć.

Wyniki niezależnych badań przeprowadzonych przez francuską firmę Pfeiffer Consulting są zadziwiające. Okazało się bowiem, że w wielu przypadkach Windows Vista jest mniej wydajny i poręczny nie tylko od Mac OS X, ale nawet od starego Windowsa XP.

Odczuwalnie pogorszyła się precyzja kursora - stopień odchylenia wynosi tutaj 0.52, podczas gdy w XP było to 0.40 (nie wspominając o Mac OS X, gdzie wynosi on zaledwie 0.08).

Podobnie rzecz przedstawia się w przypadku typowych, desktopowych czynności, jak otwieranie folderów, czy też usuwanie plików - tutaj prędkość działania jest o ok. 16 proc. niższa od poprzedniej wersji "okienek".

Z tego względu Pfeiffer Consulting radzi wszystkim chcącym migrować na nowy system Microsoftu, aby jeszcze raz przemyśleli swą decyzję. Jeśli bowiem chcą mieć system równie sprawny co dotychczas, wraz z zakupem będą musieli również zainwestować w nowszy sprzęt.

Powered by ScribeFire.

Jak nie korzystać z autorespondera

Autoresponder to skrypt, który powoduje że kilka sekund po wysłaniu emaila na nasz email przychodzi automatyczna odpowiedź. Przykładem takiego autorespondera może być aktualny cennik, wystarczy tylko wysłać emaila na adres cennik@nazwafirmy.com a od razu przyjdzie aktualny cennik. Było to modne w czasach gdy nie było aż tyle spamu (obecnie nadgorliwe filtry antyspamowe mogłyby uznać taką wiadomość za SPAM) i gdy z internetem łączyło się na kilka minut dziennie bo płaciło się za każde spędzone 3 minuty aż 35 groszy (niby niewiele, ale spędzając po 15-20 minut dziennie o dziwo zbierała się duża kwota) wtedy po prostu po rozłączeniu się z inernetem można było na spokojnie przeczytać długaśnego maila.

Inne zastosowanie autoresponderów to chęć powiadomienia o tym, że jesteśmy na urlopie i na email odpiszemy dopiero np. na początku sierpnia. Zazwyczaj w takich sytuacjach podaje się w emailu np. kontakt do innego pracownika firmy, który może się zająć daną sprawą, gdy jest ona pilna.

Jednak niektórzy użytkownicy internetu nie do końca wiedzą do czego służy autoresponder. Czasami po kilku sekundach od wysłania wiadomosci dostaję wiadomość o treści: “Dziękuję za wiadomość, postaram się odpisać jak najszybciej”. Po jakiego grzyba ludzie coś takiego robią? Czy ja jestem aż tak głupi, że nie wiem, że nie każdy siedzi przy komputerze non-stop? Taka wiadomość nie niesie użytecznej informacji, niepotrzebnie zapycha łącze i marnuje mój czas (muszę przecież otworzyć takiego maila, przeczytać i skasować). Być może jestem upierdliwy i czepiam się szczegółów, ale takich osób jest całkiem sporo. Zresztą wystarczy wysłać jakiś mailing do np. 1000 osób i zawsze dostaję kilkanaście takich głupich wiadomości


Powered by ScribeFire.

Tester to ważna osoba

Ostatnio miałem okazję wykonać dwa zlecenia (jedno duże - program partnerski, a drugie mniejsze - drobny programik na kilka godzin pracy). Jak każdy programista wiem z doświadczenia, że trudno znaleźć błędy w swoim kodzie (tak samo jest np. z copywriterami, nie widzą oni zbyt wielu błędów w swoich tekstach, dlatego im zaleca się odpocząć dwa dni od redagowanego tekstu i dopiero po tej przerwie zacząć prace nad ulepszaniem teksu). Zauważyłem, że pisząc programy samemu brakuje mi jakiegoś testera…

Sprawa nie jest taka błaha. Przykładowo napisałem prosty program w kilka godzin i wysłałem pierwszą wersję beta do oceny. Od razu dostałem informację że jest super a o spytaniu się o ewentualne poprawki, zauważone błędy usłyszałem że jest wszystko OK (była to pierwsza wersja beta). Ja oczywiście wiedziałem o kilku drobnych niedoróbkach. Sprawa wygląda tak, że programiści są wyczuleni na różne dziwne rzeczy i mają doświadczenie w szukaniu błędów (nawet w nieswoich programach - po prostu wiedzą gdzie może być słaby punkt).

Tak więc gdy się pisze dla kogoś program nie zawsze można liczyć, że zleceniodawca będzie dobrym testerem. Ostatnio coraz częściej się zdaża, że zleceniodawca po prostu tak mi ufa, że wie, że napisany program jest idealny ;-) Nie ma też co się dziwić - zleceniodawca może się nie znać na programowaniu i nie wie, w jaki sposób znaleźć słabe punkty - zazwyczaj jest tak, że dla typowych sytuacji program działa w miarę OK, dopiero dla nietypowych nie działa do końca jak trzeba, ale trudno po zwykłym zleceniodawcy oczekiwać, aby wiedział co to są te nietypowe sytuacje i jak je wywołać.

Przykładowo: mam do napisania program obliczający obwód wielokąta. Program pyta się o podanie ilości boków figury a potem odpowiednią ilość razy pyta się o długość odpowiedniego boku. Potem program sumuje długości boków i podaje obwód. Program jest wręcz banalny, ale i tu może się kryć kilka błedów. Jeśli spytani o ilość boków wpiszemy 3 a potem podamy liczby 1 2 3 to program powinien obliczyć długość obwodu dodając liczby 1 2 i 3 do siebie i wypluwając wynik 6. Ale może nastąpić sytuacja, że program pytający się o ilość boków otrzyma liczbę -1 i stwierdzi, że obwód tej figury wynosi 0 (w pewnym sensie jest to błąd, gdyż z założenia figura geometryczna musi mieć minimum 3 boki, ale nie uwzględniając kontroli wprowadzonych danych program po prostu nie do końca zadziała tak jak powinien). Inny błąd może wystąpić gdy podając długość jednego z boków wpiszemy ujemną liczbę (niby program poprawnie zsumuje liczby, ale w geometrii nie ma czegoś takiego, jak ujemna długość boku wielokąta)

Dlatego też warto podjąć współpracę (najlepiej z innym programistą) który by testował nasze programy, gdyż samemu nie zawsze można znaleźć tego typu błedy (zauważ, że w omawianym programie trzeba uwzględnić aż dwie nietypowe sytuacje, mimo iż taki trywialny program jest bardzo krótki).


Powered by ScribeFire.

Chcę kupić laptopa - na co zwrócić uwagę?

Niedawno kupiłem sobie laptopa. Ponieważ dwa tygodnie oglądałem różne modele, wymieniałem się poglądami z kilkoma osobami, więc postaram się w luźnych punktach wymienić kilka rzeczy, na które warto zwrócić uwagę. Często się okazuje że podobne laptopy są w diametralnie różnych cenach a tak naprawdę diabeł tkwi w szczegółach. Nie będę tutaj pisał o takich rzeczach jak waga, wymiary czy marka, skupię się na szczegółach technicznych.

- Procesor. Podobno gorszy pentium jest lepszy od lepszego celerona. Jeśli chodzi o procesory AMD, to tutaj się nie znam, natomiast z pentiumów/celeronów polecam te z literką M w nazwie - gdyż są one enegooszczędne i bateria dłużej trzyma

- Dysk - najlepiej kupić za duży, niż później kombinować. Jeśli chodzi o pamięć RAM, to zawsze można ją dokupić co jest mniej dokuczliwe od zmiany dysku (kupiłem lapopa z dyskiem 80GB ale okazało się, że dysk ma tylko 75GB, gdyż producenci dysków troszkę nas okłamują twierdząc że 1MB to 1000 KB a nie 1024 i stąd te rozbieżności. Oprócz tego na dysku miałem ukrytą partycję z "instalkami windowsa", której nie mogę skasować i tak naprawdę się okazało, że z 80GB zrobiło się 70 GB)

- Droższe laptopy mają wbudowany czytnik kart MMC (wiele komórek korzysta z tych kart pamięci). Ja posiadam tańszego laptopa i muszę korzystać z zewnętrznego czytnika kart pamięci podłączanego na USB

- Ilość portów USB

- Upewnij się czy laptop ma złącze PCMCIA (CardBus). W laptopach to złącze jest tak popularne jak w zwykłych komputerach USB :-) Być może USB jest standardem, ale na PCMCIA istnieje wiele różnego rodzaju sprzętu np. karta telewizyjna.

- Tańsze laptopy nie mają portu szeregowego (COM). Jeśli posiadasz kabel do telefonu komórkowego na port COM to lepiej wybrać odpowiedni laptop, niż kupować drogie przejściówki COM-USB. Obecnie port COM to w pewnym sensie przeżytek, ale czasami się przydaje.

- Zwróć uwagę, czy laptop posiada wyjście na zewnętrzny monitor

- Oprogramowanie - jeśli chcesz mieć czyste sumienie, kup laptopa z legalnym windowsem. Dodatkowo dostałem Nortona AntiVirusa (ale tylko na 90 dni) i kilkanaście programów (w tym program do nagrywania płyt CD/DVD)

- Czas trzymania baterii. Tańsze laptopy mają gorsze baterie. Jednak miej rezerwę do czasów podawanych przez sprzedawcę, oni nie wspominają, że w testach ustawiają procesor na najniższą prędkość i maksymalnie zmniejszają "oświetlenie" monitora.

- WiFi - internet bezprzewodowy staje się coraz popularniejszy, więc warto mieć laptopa z wbudowanym modułem WiFi. Ewentualnie można za około 100zł dokupić zewnętrzną kartę WiFi podłączaną do portu PCMCIA (złącze CardBus)

- Bajery - czasami widzę dwa podobne laptopy w tych samych cenach ale ten drugi sprzedawca np. oferuje dodatkowo torbę na laptopa

- Warto również kupić plecak na laptopa. Torba zbyt się rzuca w oczy a chodząc z plecakiem wyglądasz jak zwykły uczeń ;-) Oczywiście laptopa nie można nosić w zwykłym plecaku, tylko trzeba kupić taki specjalny który jest przystosowany do noszenia laptopów (posiada specjalne "gąbki" na ściankach)

- Warto dokupić zwykłą myszkę podłączaną do gniazda USB. Czasami sprzedawca sprzedaje nie laptopa a zestaw (laptop+torba+mysz)

- Gwarancja -jeśli ktoś daje 2-3 lata to znaczy, że raczej nie sprzedaje złomu

- Bateria - najlepsza 8 komorowa, gdyż wtedy laptop dłużej może pracować

- Napęd CD - w dzisiejszych czasach standardem jest nagrywarka DVD

- Karta graficzna - co prawda nie gram w gry, a laptop raczej nie służy do grania w gry, ale niektóre laptopy mają kartę graficzną bez pamięci. Taka karta graficzna jako swoją pamięć wykorzystuje pamięć RAM (można w BIOSie ustawić ile RAMu ma być zarezerwowanego dla karty graficznej). Nie polecam tego rozwiązania z dwóch powodów: pierwszy jest taki, że mając np. 512 MB RAMu już na starcie karta graficzna zżera np. 128MB a po drugie - taka karta graficzna chodzi dużo wolniej o karty graficznej z własną pamięcią (kumpel mi pokazywał jak wolno chodził program do tworzenia grafiki 3D).

Powered by ScribeFire.

Recenzja: DELL c400

Dzisiaj na tapecie laptop Dell Latitude C400. Wyjątkowo lekki - tylko ok 1,7 kg; mały - jak format A4 + 2 cm szerszy, o grubości ok 2,3 cm.
Czemu DELLik, i to nie najnowszy? Ano temu, że kocham tą zabaweczkę całym sercem :)

DELLika kupiłam w maju, i w tej chwili nie wyobrażam już sobie bez niego normalnego funkcjonowania. Jest rzeczywiście leciutki, to nie tylko chwyt marketingowy. Noszę go zazwyczaj po prostu w torebce- wymiarami świetnie pasuje, mikrocudeńko moje.

Wielkość pi razy oko dużego zeszytu czy cienkiego segregatorka sprawia, że spokojnie można go wrzucić do plecaka czy nawet aktówki i zabrać gdziekolwiek, gdzie się akurat wybierasz.

No, ale porozmawiajmy o parametrach ;)

Dane Techniczne

Model: SUB NOTEBOOK DELL C400
Procesor: Intel Pentium III 1200 MHz Mikroprocesor Intel Mobile z technologią Intel SpeedStep, Cache: 512 kb
Dysk twardy: 20 GB
Pamięć: 256 MB
Architektura: PC133 SDRAM
Grafika: INTEL ACCELERATOR 830M/MG
Modem: 56Kb/s V.90
Lan: 3com 10/100Mb/s
Matryca: aktywna matryca TFT: XGA; LCD 12.1' XGA !!!
Dźwięk: Crystal 4205, wbudowane głośniki oraz mikrofon
FDD: TAK zewnętrzny
CD-ROM: TAK zewnętrzny
Układ: QWERTY (standardowy układ angielski - programisty)
Wskaźniki: TrackPoint+TouchPad

Pomijając RAM, który defaultowo należałoby zwiększyć (w standardzie 256M, ja akurat mam 512+128M)- parametry akurat i do użytku zawodowego, i do domowego, no i rzecz jasna do WarDrivingu. O którym później ;)

Osobiście używam go:
1. Do Internetu - logiczne, nie? ;)
2. Do grafiki - nawet Photoshop chodzi na nim całkowicie płynnie
3. Do pracy - kilka różnych uruchomionych na raz programów też płynnie
4. Do słuchania muzyki ;) - też logiczne, prawda? Dźwięk średni, ale starcza
5. Do WarDrivingu - tego chyba tłumaczyć nie trzeba: malutkie, lekkie cacko w które starczy wsadzić Orinoco i śmiga jak marzenie...

Wady? Niezauwa... a nie, zauważyłam jedną:
Karta sieciowa 3com-a lubi mieć odpały. Tzn., jak działa, to działa przepięknie. Fioła dostaje jednak, jeśli odłączysz kabel sieciowy i restartniesz kompa. Mówiąc obrazowo- laptop zaczyna mulić jak wściekły do momentu albo wpięcia spowrotem kabelka, albo wyłączenia połączenia LAN.

Jako, że jest to miłość mojego życia, przetestowana często w dość skrajnych warunkach i spełniająca moje najdziksze zachcianki, mogę z czystym sumieniem polecać tego laptopika.

Powered by ScribeFire.

Sposób na szalejących spamerów.

Często dostajesz spam nt. Viagry?

Piszą do Ciebie jacyś obcy ludzie?

Chcesz się tego pozbyć ? Jest na to wiele sposobów.

Oto pomocne wskazówki:
Jeśli tworzysz stronę WWW, to wystarczy, że zakodujesz swój e-mail w HEX.
Wtedy automaty, które wyszukują znaki "@" nie widzą Twojego e-maila.

Poza tym dobrze jest kodować swój adres w formularzach kontaktowych.

Czasem, gdy zapisujesz się do jakiegoś programu partnerskiego, to jako Twój
login jest używany e-mail. Wtedy również możesz stać się „dawcą” swojego e-maila.

Kolejnymi sposobami jest kontrolowanie ujawniania swojego adresu na grupach
dyskusyjnych, w biuletynach i serwisach ogłoszeniowych.
Tam też koduj adresy. Spamerzy mają wiele sposobów na znalezienie Twojego e-maila.

Ważnym jest aby nie odpowiadać na e-maile spamerów i nawet ich nie otwierać.
Otwarcie spamu może spowodować, że wysyłający tego typu e-maile zapiszą sobie,
że jesteś zainteresowany/a spamem i zaczną wysyłać jeszcze więcej.
Tu mają znaczenie mini obrazki, które są w treści listu.

Jest jeszcze dużo prostych sposobów ochrony przed spamem. Wszystko jest opisane w darmowym ebooku na www.amarantt.org

Powered by ScribeFire.

sobota, 17 listopada 2007

Wagi - wagi laboratoryjne, stołowe oraz hakowe

Wagą nazywamy urządzenie służące do wyznaczenia masy ciała przy wykorzystaniu zjawisk fizycznych lub zasadzie równoważenia sił. Przeciętny człowiek nie zdaję sobie sprawy jak ważnymi urządzeniami są wagi. Wagi laboratoryjne wykorzystywane na przykład w przemyśle farmaceutycznym lub medycznym gdzie są niezbędne do prawidłowego rozwoju danych dziedzin. Wagi stołowe to niezwykle przydatne urządzenia, które stały się niezbędne w sklepach spożywczych, gdzie wymagane jest ważenie. Wagi są urządzeniami wszechobecnymi, które znacznie ułatwiają nam życie i które w sposób bezpośredni przyczyniły się do rozwoju handlu. Przyczyniły się też do postrzegania przedmiotów w sposób bardziej fizyczny, nie tylko pod względem objętości ale także masy. W każdym przeciętnym gospodarstwie domowym znajduję się waga łazienkowa, ilustruje to jak powszechnym są urządzeniem. Wagi laboratoryjne są najbardziej dokładne. Wagi laboratoryjne najczęściej są wagami elektronicznymi aby były dokładniejsze. Wagi laboratoryjne dzielimy na techniczne, analityczne, półmikroanalityczne, mikroanalityczne oraz ultramikroanalityczne. Podział ten występuję ze względu na precyzję pomiaru masy jak i na różnorodną konstrukcję tych urządzeń. Jak wskazuje na to nazwa wagi laboratoryjne używane są najczęściej w różnego rodzaju laboratoriach medycznych jak i chemicznych, gdzie stawią się na precyzyjny pomiar urządzenia. Wagi stołowe są wagami przemysłowymi o różnorakiej konstrukcji. Wagi stołowe najczęściej możemy zobaczyć w sklepach oraz hurtowniach, gdzie służą one do wyznaczania masy towarów i ustalenia ich ceny. Wagi stołowe mogą być elektroniczne lub starszego typu odważnikowe wtedy wykorzystywana jest zasada równoważenia sił. Należy jednak wspomnieć, że wagi odważnikowe choć tańsze obarczone są większym błędem pomiarowym. Wagi hakowe wykorzystywane w przemyśle jednak przeważenie do ustalenia masy cięższych ciężarów. Wagi hakowe mogą być elektroniczne jaki i mogą dokonywać pomiaru wykorzystując prawa fizyki bez potrzeby ich zasilania. Wagi hakowe elektroniczne są o wiele bardziej precyzyjnie od np. Wag sprężynowych. Wagi hakowe służą do obliczania masy większych przedmiotów, gdzie nie potrzebne są aż tak precyzyjne odczyty jakie uzyskują wagi laboratoryjne. Sztuką jest patrzenie na świat przez pryzmat rzeczy zwykłych i codziennych dostrzegając jednocześnie ich wielkość i wpływ na kształtowanie realnego świata. Każdego dnia patrząc na przedmioty codziennego użytku nie zdajemy sobie sprawy jak bardzo wpływają one na nasze życie a nawet na relacje społeczne.

Powered by ScribeFire.

Nowe technologie Konicy Minolty

Firma Konica Minolta, zwana wśród specjalistów popularnie „minolta”, to jeden z wiodących światowych producentów materiałów fotograficznych i związanych z obróbką obrazu. Zapewne każdemu, kto ma jakiegoś znajomego fotografa, zdarzyło się słyszeć rozmowy w fachowym slangu, w których często przewijało się słowo „minolta”, oznaczające zwykle aparat fotograficzny tej firmy, charakteryzujący się specyficznymi właściwościami. Jednak aparaty fotograficzne to nie wszystko, co Konica Minolta może oferować swoim klientom – od kilkudziesięciu lat na rynku tryumfy święcą kopiarki produkowane przez tę japońską firmę. Konica Minolta jako jedna z pierwszych firm na świecie wprowadziła do sprzedaży nowoczesne kopiarki, stając się w tej dziedzinie pionierem, co wprawdzie pociągało za sobą konieczność pewnego ryzyka, ale jednocześnie, biorąc pod uwagę odniesiony sukces, stabilizowało pozycję firmy na wiele lat jako jednego z najważniejszych światowych producentów w tej branży. Japońskie kopiarki znalazły szybko szereg zastosowań – kupowano je do wszelkiego rodzaju biur i urzędów, gdzie początkowo traktowane były jako nieznana, tajemnicza maszyna – podobnie, jak wiele lat później komputer – a dopiero w miarę „oswajania się” użytkowników z nowym elementem wyposażenia miejsca pracy zaczęto dostrzegać szereg zalet tego rodzaju sprzętu, umożliwiającego dzięki szybkości powielania zadrukowanych stron znaczne ograniczenie nakładów sił, czasu i pracy poświęcanego dotąd na wykonywanie tej pracy ręcznie, ewentualnie przy użyciu kalki – a uwolnione w ten sposób energia i kreatywność pracowników mogły być wykorzystane z powodzeniem w innych dziedzinach. Po pewnym czasie zaczęto nawet na kopiarki mówić pieszczotliwie „minolta”, niejako „podbierając” to określenie fotografom, którzy jak dotąd mieli do niego wyłączne prawa – nie doprowadziło to oczywiście do jakichkolwiek konfliktów, może jedynie do umocnienia się wizerunku firmy jako fachowej w wielu dziedzinach i na wielu polach działalności. W miarę rozwoju technologii japoński producent przeszedł częściowo – choć wedle dzisiejszych trendów znaosi się na to, że może i całkowicie – na technologię cyfrową, zarzucając tradycyjne aparaty fotograficzne i kopiarki. Zapewne najbliższa przyszłość nam pokaże, na jakie nowe urządzenia zaczniemy mówić „minolta”.

Powered by ScribeFire.

Monitoring szkoły

Cele stosowania monitoringu

Przestępstwa, na które narażeni są przebywający na terenie szkoły to: różnego rodzaju kradzieże odzieży lub innych rzeczy osobistych, wymuszenia i zastraszenia szczególnie uczniów młodszych klas przez ich starszych rówieśników. Coraz częściej dochodzi do groźnych pobić i przestępstw związanych z rozprowadzaniem środków odurzających. Należy uzmysłowić sobie, że nawet bardzo dobra edukacja nie rozwiąże tego problemu, z kolei monitoring może go znacznie ograniczyć.
Zarejestrowane sytuacje mogą być często jedynym dowodem przestępstwa, gdy świadkowie takich zdarzeń nie chcą “zeznawać” w obawie o odrzucenie ich ze strony swoich kolegów, lub w obawie o własne bezpieczeństwo. Monitorując zapewniamy bezpieczeństwo przebywającym osobom, jak również chronimy przed dewastacją obiekty, urządzenia będące własnością szkoły.

Obrazek

Założenia

Należy zdać sobie sprawę, że ze względu na charakter i wielkość obiektu (duża ilość pomieszczeń, rozległy, duży obszar monitorowania) oraz często ograniczenia finansowe tych placówek, nasz monitoring będzie miał w większości charakter poglądowy. Jedynie w kilku miejscach będzie możliwa szczegółowa identyfikacja osób np. po rysach twarzy itp.

Co i jak monitorować?

Przede wszystkim musimy obserwować wszystkie możliwe wejścia na teren budynku szkoły.
Firma Dipol proponuje wprowadzić taki monitoring, aby możliwa była jednoznaczna identyfikacją osób wchodzących. Taki podgląd zapewnią kamery umieszczone w bliskiej odległości od wejścia lub kamery z wąskokątnymi obiektywami (długie ogniskowe - teleobiektywy), które będą miały w swoim polu widzenia jedynie drzwi wejściowe. Takie rozwiązanie da nam pewność, że na zarejestrowanym materiale będziemy mieli informacje szczegółowe na temat wyglądu potencjalnego sprawcy wykroczenia, które może mieć miejsce na terenie szkoły.
Następnymi miejscami, w których powinniśmy zainstalować kamery są korytarze i szatnie.
Szczególnie w tych pomieszczeniach, kamery powinny być umieszczone jak najwyżej. Z jednej strony - usytuowanie takie zapewni największą powierzchnię podglądu. Monitorowany będzie przecież tłum ludzi, a zbyt niskie zamocowanie kamer, spowoduje, że monitorowane będą jedynie osoby znajdujące się najbliżej kamery. Z kolei dalsze osoby będą przysłonięte przez poprzedników. Z drugiej strony, montaż taki zapewni bezpieczeństwo kamery.
Ze względu na charakter pomieszczenia (korytarz jest zazwyczaj długi, i wąski) należy zastosować większą liczbę kamer. Wówczas, należy tak rozmieszczać kamery, aby każda z nich miała drugą w swoim polu widzenia (np. na dwóch przeciwległych końcach korytarza). Zapewni to możliwość zarejestrowania sprawcy uszkodzenia jednej z kamer.
Najbardziej dyskusyjnym miejscem montowania kamer są łazienki i ubikacje.
Czy pomieszczenia te powinny być monitorowane? Z punktu widzenia dyrektorów tych placówek, właśnie w tych miejscach dochodzi do największej ilości aktów chuligaństwa. Często również pomieszczenia te wykorzystywane są jako palarnie papierosów.
Biorąc pod uwagę powyższe uwagi, władze większości szkół decydują się na monitoring w tych pomieszczeniach. Podgląd prowadzony jest w ten sposób, że monitorowane jest całe pomieszczenie, bez bezpośredniego podglądu wewnątrz kabin. Taki monitoring spełnia wszystkie założenia (możliwe jest nawet wykrycie palacza - po unoszącym się ponad kabiną dymie papierosowym) i nie ogranicza “prawa do prywatności” osoby monitorowanej.
Sposób monitorowania tych pomieszczeń najlepiej jest uzgodnić z Komitetem Rodzicielskim.
W tych miejscach montowane są mniejsze kamery w obudowach kopułkowych np. M10735.

Obrazek
Kamery kopułkowe M10735, w obudowie wandaloodpornej spełniają wszystkie kryteria szkolnej kamery wewnętrznej.

Ostatnim miejscem, o którym warto pomyśleć przy montowaniu kamer, są tereny wokół szkoły tj. place zabaw, boiska, baseny, parkingi lub inne miejsca szczególnie uczęszczane przez młodych ludzi.
Ze względu na duże monitorowane powierzchnie (boisko), za pomocą małej liczby kamer, monitoring w tej sytuacji pełni najczęściej funkcję jedynie poglądową. Przy takim rodzaju monitorowania nie ma żadnej możliwości identyfikacji szczegółów. Dlatego, tutaj właśnie bardzo ważne jest zastosowanie obrazu kolorowego, wraz z jego zaletami identyfikacyjnymi. W tych miejscach zwykle łatwy jest dostęp do źródła zasilania AC220V, można wtedy wykorzystać kamerę zasilaną napięciem 220V np. kamera kolorowa M11134. Ze względu na to, że kamera pracuje na zewnątrz wymagane jest zastosowanie obudowy z grzałką M54141. Przed “oślepieniem” kamery przez światło reflektorów pojazdów uchroni obiektyw z automatyczną przysłoną np. 2,8-12mm M2135. Tak dobrany zestaw pozwoli na ciągłą całoroczną obserwację terenu wokół obiektu. W przypadku monitoringu pomieszczeń o dużej wilgotności (baseny, pomieszczenia kuchenne i stołówki) najlepiej sprawdzają się kamery w szczelnych obudowach spełniających normy IP 68, IP67. Do nich należą kamery podwodne mogące pracować nawet w zanurzeniu do 30m. Z kolei modele M11233, M11234 (kolor) to kamery o obudowach odpornych na wilgoć, jednak zdecydowanie nie do zastosowań podwodnych.
Pewnym ograniczeniem ich zastosowania może być brak możliwości wymiany obiektywu ze względu na utratę gwarancji (zerwanie plomby producenta). Jednak w 90% przypadków nie jest to konieczne ze względu na zastosowanie w tych kamerach obiektywów szerokokątnych preferowanych przez większość klientów.

"Tajna broń"– atrapy kamer

Bardzo istotnym elementem każdego monitoringu, a w szczególności monitoringu w tego typu obiektach na aspekt psychologiczny. Już sama świadomość, że jest się obserwowanym wymusza na tych osobach bardziej kulturalne i przemyślane zachowanie. Ten fakt, należy wykorzystać stosując atrapy kamer, które znacznie zwiększają “optycznie” ilość monitorowanych miejsc oraz znacznie obniżają koszt całego systemu monitoringu.
Uwaga! Najlepiej byłoby, gdyby atrapa kamery była identyczna z kamerami lub obudowami montowanymi na obiekcie, szczególnie na zewnątrz.
Więcej na temat monitoringu szkoły na stronie: http://www.dipol.com.pl/monitoring_szkoly_bib66.htm


Powered by ScribeFire.

Krakowska Jesień Targowa

"Multimedialny dom"- to przewodni motyw ekspozycji Dipola na Targach SatKrak, które odbędą się w dniach 18-20.10.2007 w Centrum Targowym Chemobudowa Kraków, ul. Klimeckiego 14.
Szczegółowo przedstawiona zostanie idea nowoczesnego projektowania i wykonania instalacji teletechnicznej, która umożliwi mieszkańcom korzystanie z najnowszych osiągnięć technik telekomunikacyjnych.
Propozycje instalacji dotyczyć będą domów zarówno jedno- jak i wielorodzinnych.

* zaprezentujemy urządzenie aktywne, kable i osprzęt do wykonania instalacji teletechnicznej w Multimedialnym Domu,

* udostępnimy schematy i opisy wykonanych instalacji,

* w trakcie wykładów omówimy zasady projektowania i wykonywania nowoczesnych instalacji teletechnicznych,

* w osobnym wykładzie, adresowanym do elektryków omówimy zasady okablowania teletechnicznego, pozwalającego na późniejszy montaż urządzeń aktywnych w zależności od wymagań klienta

Więcej na temat koncepcji multimedialnego domu na stronie: http://www.dipol.com.pl/dipol_na_targach_satkrak_2007_krakow_18-20_10_2007_bib801.htm

Obrazek

Zainteresowanych zapraszamy na cykl wykładów, które odbędą się podczas trwania Targów:

* "Nowoczesne okablowanie domu jednorodzinnego - dom multimedialny" - 18.10.2007, godz. 11.00. Na kursie przedstawimy koncepcję okablowania budynków w nowoczesnym i przyszłościowym Systemie SignalNet. Zaproponujemy konkretne rozwiązania sprzętowe dla instalacji TV SAT, WLAN, CCTV.

* "Instalacje multiswitchowe” - 19.10.2007, godz. 12.00. Na kursie omówimy zalety instalacji multiswitchowych przedstawimy zasady wykonywania i schematy instalacji z wykorzystaniem multischwitchy .

* "Okablowanie teletechniczne budynków"- 19.10.2007 godz. 11:00. Dla elektryków i biur projektowych przygotowaliśmy dodatkowy kurs z okablowania. Na kursie przedstawimy zasady doboru kabli do poszczególnych instalacji, wpływ ich parametrów na możliwości transmisyjne. Omówimy zasady okablowania budynków pozwalające na instalację urządzeń aktywnych realizujące potrzeby współczesnej telewizji.

Więcej na temat kursów na stronie: http://www.dipol.com.pl/kursy.htm

Powered by ScribeFire.

piątek, 16 listopada 2007

Opakawania dvd

Jedną z rzeczy, tak powszechnych w naszym dzisiejszym życiu, że wręcz nie dostrzegamy ich istnienia, a zarazem takich, których przydatność i istnienie trudno byłoby sobie kilkanaście lat temu wyobrazić, są opakowania DVD. Pojawiły się one w ostatnich latach wraz z upowszechnieniem się filmów stosujących ten stosunkowo nowy nośnik, i, biorąc pod uwagę niezwykłą łatwość powielania tychże filmów, a co za tym idzie, sprzedaży ich w prawie nieograniczonych ilościach w najodleglejszych zakątkach świata, pojawiła się konieczność ich opakowania. DVD zjawiło się w naszym życiu niespodziewanie, ale bardzo szybko zawładnęło masową wyobraźnią, powodując, że odbiorniki stacjonarne szybko zagościły w niemal każdym domu, a coraz trudniej kupić też komputer, który nie jest wyposażony w adekwatny czytnik. Dlatego też inwestowanie w opakowania DVD, a zwłaszcza ich produkcję, stało się zupełnie niespodziewanie bardzo intratnym interesem. W końcu każdy wydawca filmu potrzebował mniej lub bardziej – zależnie od klasy filmu i zasobności finansowej klientów z grupy docelowej – estetycznego etui DVD. Oczywiście istnieje także możliwość stosowania jako opakowania DVD tradycyjnego pudełka na płytę CD, uniemożliwia ona jednak umieszczenie we swym wnętrzu materiałów promocyjnych. Poza tym istotną kwestią stały się też walory estetyczne pudełek, które, ustawione szeregiem na półce, pozwalały po jednym spojrzeniu odróżnić się od płyt muzycznych, zapobiegając nerwowemu zastanawianiu się, czy do czytnika wkłada się płytę CD, czy też DVD. Ponadto produkcja etui DVD jest stosunkowo mało skomplikowana i niezbyt kosztowna, nie wymagając od inwestora szczególnie dużych nakładów, przy zapewnieniu zbytu na całkiem przyzwoitym poziomie. Zaowocowało to, jak można się było spodziewać, pojawieniem się szeregu niezbyt doświadczonych firm, dla których opakowania DVD stanowiły towar niewiele różniący się od świeczek czy mydła. Dzisiaj w prawie każdym, nawet niezbyt zamożnym domu odnaleźć można w pobliżu telewizora charakterystyczne kształty etui DVD. Jak wspomniano na wstępie, opakowania DVD bez ostrzeżenia wkroczyły w nasze życie, stając się w ciągu kilku lat czymś zupełnie normalnym.

Dlaczego NIE warto stosować się do standardów sieciowych?

Jak stosowanie się do standardów sieciowych może wpłynąć na naszą witrynę? Wśród internautów kwestia ta budzi niemałe kontrowersje. Postaram się przedstawić podstawowe korzyści płynące z niestosowania się do niektórych zaleceń standaryzacyjnych.

Co to jest standaryzacja?
Traktując najogólniej tą kwestię jest to zbiór reguł opisujących składnię języka html i ujednolicających go poprzez narzucanie programiście określonych zasad podczas kodowania. Stosując się do nich powinniśmy mieć, teoretycznie, gwarancję poprawności wyświetlania naszej strony pod wszelkimi przeglądarkami. Rzeczywistość niestety weryfikuje te założenia i zmusza programistę do wysiłku podczas projektowania strony. Nasuwa się więc oczywiste pytanie – czy warto się do tych standardów stosować?

Jak działają giganci?
Projektując strony warto brać przykład z innych, obserwować trendy na rynku i stosowane technologie, tricki. Po przeanalizowaniu chociażby witryny http://www.google.pl spostrzeżemy, że nie waliduje się ona poprawnie. Mało tego – ilość błędów jest dość wysoka. Podobnie sytuacja wygląda z kolejnym gigantem rynku, Microsoftem. Ich główna witryna także usłana jest błędami z punktu widzenia standardów W3C (XHTML 1.0, XHTML 1.1, HTML 4.0, HTML 4.1, itp.). Jest klika aspektów takiego działania i takie rezultaty nie są przypadkowe – są to celowe działania programistów mające na celu, paradoksalnie, poprawić działanie tych serwisów.

Co można zyskać?
Umiejętne pomijanie niektórych standardów może przynieść webmasterowi wymierne korzyści. Pewien trick stosuje Google – programiści nie zamykają wielu tagów html. Pomysł ten wydaje się z początku absurdalny. Ma jednak uzasadnienie w praktyce – pomijanie niektórych znaczników zamykających, przy tak ogromnym serwisie jakim jest Google i przy takiej ilości linii kodu a co za tym idzie znaczników, w istotny sposób wpływa na zmniejszenie uploadu (ilości wysyłanych danych) serwera. Naddatek danych jakie serwer musi zapewnić milionom użytkowników liczy się w terabajtach, dlatego ograniczanie ruchu w tej kwestii jest bardzo istotne.

Z punktu widzenia programisty wymogi narzucane przez różne standardy sieciowe mogą często być uciążliwe, a nawet rozpraszać i odciągnąć od faktycznego problemu programistę. Oczywistym jest, że każdy koder posiada swój własny, niepowtarzalny styl programowania i do czasu aż napisana przez niego strona poprawnie działa i wyświetla się bez problemu w różnych przeglądarkach, standaryzacja może zejść na drugi plan. Oszczędności w nakładzie pracy i czasu osiągnięte w ten sposób w przypadku niektórych projektów mogą okazać się kluczowe – odchudzenie kodu może wyjść stronie tylko na dobre.

Brak walidacji nie oznacza utraty przejrzystości
Spotkałem się z teorią, że ustandaryzowany kod jest prostszy do zrozumienia. Według mnie jest to kwestia indywidualnych preferencji i zależy tylko od danego programisty, czy styl narzucany przez standardy jest dla niego przejrzysty czy też nie. Jedyną kwestią, jaką trzeba mieć na uwadze, jest poprawne wyświetlanie w podstawowych przeglądarkach i jest to aspekt bezdyskusyjny – nie możemy pozwolić na to, aby nasz sposób kodowania wpływał negatywnie na jakość strony.

Optymalizacja pod Internet Explorer
Praktyka mówi, że to właśnie z tą przeglądarką programiści mają największe problemy. Dzieje się tak dlatego, że jest ona zbudowana na relatywnie przestarzałym silniku, który, w tym momencie, odbiega już od nowoczesnych przeglądarek – Mozilla Firefox oraz Opera. O ile radzą sobie one z większością stron napisanych z mniejszą dbałością o standaryzację, to prawdopodobnie napotkamy problemy z poprawnym wyświetleniem strony pod IE. Wiąże się to z szeregiem różnych czynników, których poprawne zrozumienie wymaga dużego doświadczenia, dlatego każdy webmaster powinien poświęcić osobną uwagę na zoptymalizowanie strony pod IE. Nawet poprawna standaryzacja strony nie gwarantuje właściwego działania pod przeglądarka Microsoftu.
Niestety ta zależność często działa w obie strony, co powoduje że strony spod IE potrafią przysporzyć problemów podczas wyświetlania w nowszych przeglądarkach. Zapewne sytuacja może ulec zmianie po wprowadzeniu nowego silnika IE, jednak ciężko przewidzieć w którą stronę zwrócą się koderzy z Microsoftu.

Podsumowując, kwestia stosowania się do standardów nie jest taka oczywista. Programista kodujący zgodnie ze standardami nie jest w stanie zapewnić stronie poprawności wśród wszystkich przeglądarek. Często warto się skupić na optymalizacji aby witryna działała sprawniej, nawet kosztem braku zgodności ze standardami.

Onkyo DV SP405 odtwarzacz DVD z konwersją do 1080p

Najnowszy Onkyo, wyposażony jest w interfejs USB (1.1), co pozwala odtworzyć na ekranie współpracującego telewizora, film lub zdjęcia zapisane na dyskach przenośnych, czy odtwarzaczach MP3, MP4. Odtwarzacz, co charakterystyczne dla produktów Onkyo, doskonale radzi sobie z płytami CD i oferuje szczegółowy i zrównoważony barwowo dźwięk z mocno zarysowaną linią basu.

DV-SP405E odtwarza pyty: DVD, DVD+R/RW, DVD-R/RW, CD, CD-R/RW, pliki: MP3, WMA, DivX, JPEG.

Produkt można obecnie znaleść w sklepie www.maxaudio.pl i kosztuje tylko 799 zł.

Właściwości:

• Dekodery: DTS® 2.0, wyjście cyfrowe DTS® i Dolby®
• Odtwarza formaty DVD Video, Video CD, Audio CD, CD-R/RW, DVD-R/RW, DVD+R/RW*
• Dekodery: DTS® 2.0, wyjście cyfrowe DTS® i Dolby®
• Odtwarza formaty MP3, WMA, WMV, MPEG-4 AAC, DivX® i JPEG*
• Wyjście HDMI
• Interfejs USB (wersja 1.1)
• Konwersja HD w celu dostosowania rozdzielczości sygnału do ekranów wysokiej rozdzielczości
• Progressive Scan PAL/NTSC
• Konwerter C/A audio 96 kHz/24-bit
• Konwerter C/A wideo 108 MHz/12-bit
• Koaksjalne wyjście cyfrowe
• Wyjście sygnału cyfrowego 96 kHz lub 48 kHz (do wyboru)
• Wyjścia komponent, SCART i kompozytowe wideo
• Program Disc Navigator do przeglądania zawartości audio i wideo (w tym plików komputerowych)
• Komunikaty OSD w wysokiej rozdzielczości w języku angielskim, francuskim, hiszpańskim, niemieckim, włoskim i rosyjskim
• Aluminiowy panel przedni
• Pilot
* Płyty, które nie zostały prawidłowo sfinalizowane, mogą być odtwarzane częściowo lub nie być odtwarzane wcale.

Odkurzacz - trochę historii na wesoło

Odkurzacz...nic bardziej zwyczajnego. Co prawda firmy produkujące te urządzenia prześcigają się w ich udoskonalaniu. Mamy już odkurzacze, które potrafią prać dywany i tapicerkę, takie którymi można zbierać wodę czy myć szyby. Jednak mimo wszystko, dla mnie to wciąż zwykłe urządzenie codziennego użytku. Sama myśl o konieczności jego użycia wywołuje gęsią skórkę (nie tylko u mnie). Jest jednak coś w odkurzaczu na co warto zwrócić uwagę - jego historia. Na ten temat natrafiłem przypadkiem i tak jak każdy rozsądny człowiek w pierwszej chwili pomyślałem, że będzie monotonny jak samo odkurzanie. Okazał się jednak zgoła inny...
Historię odkurzacza, a raczej "zamiatającej maszyny" - bo tak ją początkowo nazywano, zapoczątkował 8 czerwca 1869 roku w Chicago człowiek nazwiskiem Ives W. McGaffey. Swojemu wynalazkowi nadał nazwę "Aspirator". Moim skromnym zdaniem nazwa jak najbardziej słuszna, kojarząca się z mocą. Odpowiednia dla supernowoczesnego urządzenia. Zaiste było to potężne urządzenie zasilane silnikiem parowym, ogromne i niezwykle głośne. Posiadało jeszcze jedną dość istotną wadę, mianowicie trudność w przenoszeniu "Aspiratora" była porównywalna z przesuwaniem kamiennych bloków podczas budowy piramid. Przesadzam oczywiście, ale tylko odrobinę. Z powodu swoich gabarytów i "zamieszania" które powodował, był używany jedynie w zastosowaniach przemysłowych.
Kolejnym duży krok w rozwoju technologicznym odkurzaczy dokonał się w 1901 roku w Anglii. Hubert Cecil Booth, właściciel firmy zajmującej się sprzątaniem jako pierwszy zbudował odkurzacz zasilany energią elektryczną. Choć był to ogromny postęp, to jednak w dalszym ciągu urządzenie to było dla każdej gospodyni domowej ciężarem nie do udźwignięcia, w znaczeniu dosłownym jak najbardziej dosłownym. Mimo faktu, iż w dalszym ciągu odkurzaczowi bliżej było do lokomotywy niż do poręcznego urządzenia domowego, jego unowocześnianie nabierało tempa i szło w jak najbardziej dobrym kierunku...no prawie. Zaledwie kilka lat później, w 1907 roku James Murray Spangler korzystając ze zdolności logicznego myślenia wydedukował, że to szczotka do czyszczenia dywanów jest źródłem jego kaszlu. Jako, że był niezwykle przedsiębiorczym i pomysłowym człowiekiem zmontował w zmyślny sposób stary wentylator z pudełkiem po mydle i rączką od szczotki. Jako zbiornik na kurz posłużyła poszewka z poduszki. W ten oto sposób, dzięki kreatywności jednego człowieka i to w dodatku nawet nie naukowca, powstał pierwszy przenośny odkurzacz. Zaledwie rok później po wprowadzeniu drobnych udoskonaleń Spangler uzyskał patent na swoje urządzenie.
Jednym z pierwszych osób, które kupiły patent był szwagier wyżej wspomnianego wynalazcy William H. Hoover. Sprzedaż tego przenośnego odkurzacza, co tu dużo mówić...była marna. Nabywca patentu nie poddał się jednak łatwo. Dał potencjalnym klientom możliwość 10-dniowego, darmowego wypróbowania tego nowatorskiego urządzenia. Wkrótce odkurzacz znalazł się w niemal każdym domu.
Istnieje jeszcze jedna postać, która w dość istotny sposób wpisała się w historię odkurzacza. Tą osobą jest John Thurman. Jak nie trudno się domyślić on też wynalazł jeden z pierwszych odkurzaczy, a na pewno pierwszy w swojej klasie. Był to bowiem odkurzacz spalinowy. Opatentował go w 1899 roku. Założył firmę sprzątającą, oczywiście przy użyciu odkurzacza zasilanego paliwem płynnym. Cena jednej wizyty tego "cacka" w domu wahała się w okolicach 4$. Choć nie wątpię, że musiało to być niezwykle ciekawe przeżycie dla domowników, to jednak historia tego typu odkurzaczy nie była długa.
Godnym zauważenia, jest fakt iż w/w William H. Hoover założył firmę produkującą odkurzacze, która po dziś dzień wykonuje jedne z najlepszych urządzeń tego typu. Nie ma o czym mówić - tradycja!

Jak sprawdzić, która kamera jest najlepsza?

Różnorodność oferowanych kamer może przysporzyć problemów przy wyborze odpowiedniego modelu.
Pojawiają się pytania:

- na ile dane podawane przez producentów są rzetelne?
- która kamera lepiej odwzorowuje kolory?
- jaka jest współpraca z oświetlaczem IR?
- czy przy kupnie kamer sugerować się rodzajem kamery, obiektywu, przetwornika, jakie parametry techniczne porównywać, żeby uzyskać optymalny wynik?

Kosztem kilkudziesięciu tysięcy euro firma Dipol uruchomiła nowoczesne i profesjonalne laboratorium do testowania kamer.

Klienci firmy otrzymają wyniki testów, dzięki którym będą mogli dobrać optymalną kamerę oraz przekonać się, że płacą wyższą cenę za rzeczywiście lepsze parametry.


Laboratorium składa się z dwóch hal.
Pierwsza hala służąca do porównawczego testowania zespołów kamerowych została zbudowana według norm spełniających wymogi hal laboratoryjnych (odpowiednia powierzchnia, brak dostępu światła dziennego). Wymiary studia badawczego 3 x 16 m.

Przestrzeń widzenia kamer została z tyłu i z boków wyłożona profesjonalnym, czarnym tłem, dla zobrazowania warunków zupełnej ciemności w plenerze. Na tak powstałej scenie zostało umieszczonych 5 manekinów. Pierwszy w odległości 4 m od kamery, pozostałe co 3 m, aż do 16 m.
W hali przeprowadzane są testy porównawcze układów kamera – obiektyw - oświetlacz.

W drugiej hali (Studio Analiz), na ławie optycznej, testom poddawane jest jakość kamer i obiektywów w warunkach oświetlenia pomiarowego. Przez oświetlenie pomiarowe rozumiemy: światło dzienne ciągłe, światło sztuczne i IR - z wzorcowym widmem i o regulowanym strumieniu świetlnym.

W Studiu Analiz do testowania kamer służy wzorcowy obiektyw wysokiej jakości, natomiast w przypadku badania obiektywów jako wzorcowa używana jest kamera 5 Megapikseli.

Prace badawcze w laboratorium testowania kamer przebiegają bez problemów, według wcześniej wytyczonego planu, a w niedługim czasie zostanie opracowany specjalistyczny katalog podsumowujący wyniki badań kamer i obiektywów, pozwalający klientom w łatwy i przejrzysty sposób dobrać odpowiednią dla ich wymagań kamerę i obiektyw.

Urządzenia techniki cyfrowej.

Minolta jest jedną z wiodących firm na świecie, zajmujących się produkcją urządzeń przeznaczonych do obróbki i przetwarzania obrazu. Wieloletnie doświadczenie Minolty sprawia, że oferowany sprzęt jest najwyższej klasy, a klient przyzwyczajony do solidnego wykonania oraz zaawansowanej technologii z przyjemnością wraca po inne produkty tej firmy. Szczególny nacisk kładziony jest na kopiarki oraz urządzenia wielofunkcyjne, na które zapotrzebowanie ciągle się zwiększa - zarówno w komercyjnych, dużych przedsiębiorstwach jak i w mniejszych firmach. Nie można pominąć również linii dotyczącej aparatów fotograficznych Minolta, z którymi z pewnością spotkał się prawie każdy czy to w reklamie, sklepie, czy też oko w oko z samym obiektywem, robiąc piękne zdjęcia. Kopiarki są niewątpliwie najtańszymi w eksploatacji oraz najszybszymi urządzeniami powielającym treści pisane. Prędkość wydruków, zaawansowane funkcje oraz gabaryty zmniejszane do minimum, zachęcają do kupna coraz to nowszych, lepszych modeli. Ciężko dziś sobie wyobrazić życie bez sprzętu kopiującego. Tak samo, jak i nieprawdopodobnym jest świat bez aparatów fotograficznych, obecnych w prawie każdym telefonie komórkowym. Równie popularne w ostatnich latach stały się też urządzenia wielofunkcyjne, którym warto w tym miejscu poświęcić trochę uwagi. Zamiast kupować osobno drukarkę, skaner i fax, możemy zaopatrzyć się w pojedyncze urządzenie, spełniające wszystkie nasze wymagania. Zaletą takiego rozwiązania jest zaoszczędzone miejsce na biurku, koszt, ale i wygoda obsługi. Wszystko bowiem znajduje się w jednej obudowie, a nadzór i sterowanie nad sprzętem pełni jedna, przejrzysta aplikacja zainstalowana na naszym komputerze. Można by pokusić się o porównanie tych dwóch urządzeń kopiujących, ale zarówno kopiarki jak i urządzenia wielofunkcyjne mają swoje zalety i wady w zależności od docelowego miejsca. Pod uwagę należy wziąć przede wszystkim koszty eksploatacyjne oraz oszacować, w jakim stopniu będziemy używać naszego nowego nabytku. Te dwa, z pozoru błahe pytania pozwolą nam wybrać urządzenie najodpowiedniejsze naszym przyszłym zastosowaniom. Pewne jest jednak, że funkcjonowanie dzisiejszego świata jest praktycznie niemożliwe bez tego typu sprzętu. Warto zapoznać się z asortymentem firmy Minolta, gdyż jest on naprawdę godny polecenia.

Anteny w Republice Shqipëria

Dzisiejsze państwo uważane jest za pozostałość i dziedzictwo antycznego królestwa Illirii (The Kingdom of Illyria), które funkcjonowało w latach 1225-167 przed naszą erą.
Illirowie najpierw stracili niezależność na rzecz Rzymu, jednak ich finalnymi pogromcami, około VI wieku, byli Słowianie.

Dzisiejsza Shqipëria liczy około 3,5 miliona mieszkańców, dodatkowo poza krajem żyje około 2 milionów emigrantów.

Obecnie kraj jest na drodze szybkiego wzrostu PKB – około 7% rocznie. Ze względu na zaszłości historyczne, związane ze słabą pozycją struktur państwa, około 50% PKB wytwarzane jest w szarej strefie w związku z tym wzrost dochodu narodowego może być niedoszacowany.

Do 1990 roku, w dziedzinie telekomunikacji, Shqipëria była jednym z najbardziej zacofanych państw świata, na 100 mieszkańców tylko około 2 miało telefon. Obecnie następują szybkie zmiany w tej dziedzinie, w 2004 r było już 1,25 miliona aparatów komórkowych co stanowiło około 35% populacji.

Jeszcze bardziej imponujący jest rozwój w zakresie telewizji. Dla mieszkańców dostępne są 4 stacje o zasięgu ogólnokrajowych (2 publiczne i 2 prywatne) i 62 lokalne.

Działalność prowadzi trzech operatorów nadających programy satelitarne, podjęto również emisję naziemnej telewizji cyfrowej.

Cały artykuł wraz z ciekawymi zdjęciami dostępny na stronie www.dipol.com.pl

Monitoring wizyjny miast

Wpływ zabezpieczeń i monitoringu na bezpieczeństwo osób i mienia.

Corocznie w Polsce dokonywanych jest około 350 000 włamań, 40000 rozbojów, z czego około 20 000 w miejscach publicznych. Ogólna tendencja wskazuje na stały wzrost przestępczości.

Po co monitoring wizyjny?

W strefach objętych zasięgiem kamer następuje radykalne zmniejszenie (w niektórych przypadkach nawet do zera) napadów, wybryków chuligańskich, kradzieży, niszczenia mienia, wzrasta przestrzeganie zasad ruchu drogowego.
Dla przykładu w przestępczość w monitorowanym rejonie Radomia spadła o 50%.

W przypadku innych miast wskaźnik ten sięga 25-75%. Warunkiem koniecznym dla zaistnienia tych zmian jest sprzężenie monitoringu ze działaniem służb interwencyjnych: policji oraz Straży Miejskiej.
Prawidłowa organizacja pozwala, tak jak w przypadku Radomia, na dotarcie patrolu do miejsca wskazanego przez operatora systemu wizyjnego w ciągu 2 minut.

Monitoring wizyjny pozwala na „odzyskanie” do celów handlowych, turystycznych czy kulturalnych centrów miast oraz dworców. Trzeba jednak pamiętać, że wprowadzenie monitoringu nie wpływa w sposób znaczący na obniżenie przestępczości w skali całego miasta, gdyż następuje zjawisko „spychania” zjawisk patologicznych w strefy nie podlegające monitorowaniu.

Zalety instalacji monitoringu

Monitoring miejski nie jest tylko narzędziem służącym w rozstrzyganiu spraw związanych z wykroczeniami, przestępstwami karnymi, ale również może być pomocny w zabezpieczaniu imprez sportowych i kulturalnych, czy też jest pomocny do szybkiej oceny sytuacji na ulicach, skrzyżowaniach, co znacznie ułatwia kierowanie ruchem.

Jak wprowadzać monitoring wizyjny - przykład kielecki.

Przede wszystkim realizacja tego zadania musi odbywać się w ścisłej współpracy z Policją i Strażą Miejską. W przypadku Kielc na podstawie danych z ostatnich dwóch lat, przeprowadzono analizę miejsc zagrożeń – sporządzając odpowiednią mapę, stanowiącą podstawę do planu rozmieszczenia kamer.

Uzgodniono, że stanowisko monitorowania powinno znaleźć się w bezpośrednim sąsiedztwie stanowiska dowodzenia Policji, zapewniono odpowiednie środki łączności bezprzewodowej z wozami patrolowymi i przewodowej z komisariatami znajdującymi się w pobliżu planowanego rozmieszczenia kamer. Zadbano o zarezerwowanie odpowiedniego pomieszczenia oraz obsady ludzkiej.

Centrum monitorowania może znajdować się również w siedzibie Straży Miejskiej, jednak trzeba pamiętać o uzgodnieniach związanych z łącznością i organizacją współpracy z policją.

Istotne znaczenie ma przygotowanie organizacyjne Centrum monitorowania. W Radomiu ze względu na ograniczenia wynikające z limitowanego do 4 godzin czasu ciągłej pracy przy monitorze obsadę stanowią 2 osoby, co w połączeniu z koniecznością pracy ciągłej wymagało zatrudnienia 10 osób do obsługi stanowiska. Sprawą często nie zauważana jest fakt, iż system monitoringu wymaga zatrudnienia lub oddelegowania operatorów, co pochłania dodatkowe środki.

Monitoring miasta nie eliminuje w zupełności aktów wandalizmu, kradzieży, napadów, ale w znacznym stopniu je ogranicza, dlatego coraz więcej miast decyduje się na wprowadzenie monitoringu wizyjnego.

Roboty mobilne

Planowanie ruchu robota polega na celowym doborze oddziaływań na robota, by był zdolny do przemieszczenia się od zadanego punktu początkowego do końcowego, unikając kolizji z przeszkodami i przy zapewnieniu odpowiedniej jakości ruchu. Robotem może być manipulator przemysłowy, robot mobilny, robot szybujący bądź kroczący. Robotem mobilnym nazywamy robota o możliwościach lokomocyjnych osiąganych przy pomocy kół, gąsienic, nóg czy silników odrzutowych.
Roboty mobilne znajdują coraz więcej zastosowań. Używane są w systemach dozoru, do penetracji i identyfikacji nieznanego i niebezpiecznego terenu oraz w transporcie elementów wewnątrz hal zakładów przemysłowych.
W zależności od zakresu dostępnej informacji o otoczeniu robota w fazie planowania ruchu, metody planowania robotów mobilnych dzielimy na globalne i lokalne. Metody globalne zakładają znajomość rozkładu wszystkich przeszkód przed przystąpieniem do planowania. Metody lokalne zakładają znajomość rozkładu przeszkód tylko w najbliższym otoczeniu robota.
Aby robot mógł pracować w otoczeniu niezdeterminowanym i aby był zdolny reagować na sytuacje nieprzewidziane przez programującego go człowieka, należy robotowi zapewnić zdolność oglądania otoczenia, w którym ma się poruszać. Konieczne staje się zaopatrzenie robota w sztuczny system wizyjny. Robot bez układu wizji może co prawda funkcjonować m.in. dzięki wiedzy dostarczonej przez algorytm sterowania, jednak działanie to jest prawidłowe tylko przy założeniu niezmienności otoczenia.
W konstrukcji robotów mobilnych prym wiedzie Japonia, która słynie z budowy najbardziej rozwiniętych technicznie robotów na świecie. Przykłady robotów mobilnych:


Aibo - autonomiczny robot - zabawka wyglądem przypominającym psa. Wyprodukowany przez firmę Sony. Aibo jest autonomiczny, odczuwa swoje środowisko oraz jest w stanie uczyć się podobnie jak dojrzewający pies.


Palm Pilot Robot - prosty w budowie, autonomiczny robot mobilny, sterowany małym kontrolerem, trzymanym w ręce sterującego. Został opracowany i zbudowany przez robotyków na Carnegie Mellon University's Robotics Institute.


Mobilny robot dydaktyczny HEXOR, który został zaprojektowany na Wydziale Elektrycznym Politechniki Śląskiej. Stanowi połączenie sześcionożnej platformy kroczącej, napędzanej serwomechanizmami prądu stałego, z nowoczesnym sterownikiem mikroprocesorowym oraz zestawem czujników i układów akwizycji danych ze środowiska otaczającego robota.


BigDog - czteronożny robot mobilny zaprojektowany przez firmę Boston Dynamics, który potrafi podnieść ciężar do 40 kg. Nogi zapewniają mu bardzo dobrą stabilność - robot nawet wytrącony z równowagi (np. podczas kopnięcia go), potrafi powrócić do optymalnego dla siebie położenia. Został zaprojektowany do celów militarnych.

Roboty mobilne

Planowanie ruchu robota polega na celowym doborze oddziaływań na robota, by był zdolny do przemieszczenia się od zadanego punktu początkowego do końcowego, unikając kolizji z przeszkodami i przy zapewnieniu odpowiedniej jakości ruchu. Robotem może być manipulator przemysłowy, robot mobilny, robot szybujący bądź kroczący. Robotem mobilnym nazywamy robota o możliwościach lokomocyjnych osiąganych przy pomocy kół, gąsienic, nóg czy silników odrzutowych.
Roboty mobilne znajdują coraz więcej zastosowań. Używane są w systemach dozoru, do penetracji i identyfikacji nieznanego i niebezpiecznego terenu oraz w transporcie elementów wewnątrz hal zakładów przemysłowych.
W zależności od zakresu dostępnej informacji o otoczeniu robota w fazie planowania ruchu, metody planowania robotów mobilnych dzielimy na globalne i lokalne. Metody globalne zakładają znajomość rozkładu wszystkich przeszkód przed przystąpieniem do planowania. Metody lokalne zakładają znajomość rozkładu przeszkód tylko w najbliższym otoczeniu robota.
Aby robot mógł pracować w otoczeniu niezdeterminowanym i aby był zdolny reagować na sytuacje nieprzewidziane przez programującego go człowieka, należy robotowi zapewnić zdolność oglądania otoczenia, w którym ma się poruszać. Konieczne staje się zaopatrzenie robota w sztuczny system wizyjny. Robot bez układu wizji może co prawda funkcjonować m.in. dzięki wiedzy dostarczonej przez algorytm sterowania, jednak działanie to jest prawidłowe tylko przy założeniu niezmienności otoczenia.
W konstrukcji robotów mobilnych prym wiedzie Japonia, która słynie z budowy najbardziej rozwiniętych technicznie robotów na świecie. Przykłady robotów mobilnych:


Aibo - autonomiczny robot - zabawka wyglądem przypominającym psa. Wyprodukowany przez firmę Sony. Aibo jest autonomiczny, odczuwa swoje środowisko oraz jest w stanie uczyć się podobnie jak dojrzewający pies.


Palm Pilot Robot - prosty w budowie, autonomiczny robot mobilny, sterowany małym kontrolerem, trzymanym w ręce sterującego. Został opracowany i zbudowany przez robotyków na Carnegie Mellon University's Robotics Institute.


Mobilny robot dydaktyczny HEXOR, który został zaprojektowany na Wydziale Elektrycznym Politechniki Śląskiej. Stanowi połączenie sześcionożnej platformy kroczącej, napędzanej serwomechanizmami prądu stałego, z nowoczesnym sterownikiem mikroprocesorowym oraz zestawem czujników i układów akwizycji danych ze środowiska otaczającego robota.


BigDog - czteronożny robot mobilny zaprojektowany przez firmę Boston Dynamics, który potrafi podnieść ciężar do 40 kg. Nogi zapewniają mu bardzo dobrą stabilność - robot nawet wytrącony z równowagi (np. podczas kopnięcia go), potrafi powrócić do optymalnego dla siebie położenia. Został zaprojektowany do celów militarnych.

Suwnice transportowe

Suwnice stanowią jedną z głównych grup o szerokim zakresie zastosowania. Stosuje się je do obsługi hal produkcyjnych, magazynów i otwartych składowisk oraz do obsługi procesów technologicznych. Najczęściej stosowane są suwnice pomostowe . Zależnie od przeznaczenia wyróżnia się: suwnice hutnicze, odlewnicze, magazynowe wyposażone w haki lub w odpowiednie chwytaki, uchwyty, widły do sterowania.W celu zwiększenia intensywności obsługi hal produkcyjnych można zainstalować pod suwnicami wspornice o dźwigu 3 – 8 t i wyciągu 4 – 10 m lub żurawie pościerano – przejezdne, umożliwiające podawanie materiałów na stanowisko pracy, do których dostęp dla suwnic jest utrudniony. Do obsługi terenów otwartych stosuje się suwnice bramowe lub półbramowe oraz mostowe o rozpiętości do 80 m, które wyposaża się w żuraw podwieszony albo podnośnik taśmowy . Coraz większe zastosowanie znajdują suwnice kontenerowe umożliwiające przeładunek wielkich kontenerów, sterowane ręcznie lub automatycznie.
Konstrukcje nośną mostów suwnicowych wykonuje się w postaci:
- jednego lub dwóch dzwigów spawanych z kształtowników walcowych, które stosuje się do przenoszenia mas rzędu 10 t przy rozpiętości do 14 m.
- Kratownicy z kształtowników walcowych lub rur (wykonanie pracochłonne i wrażliwe na zmiany otoczenia).
- Blachownicy jednej lub dwuśrodnikowej albo o przekroju trójkątnym bądż też ukł. ramowego i sprężynowego.
Kształt dżwigni zależy przebiegu momentów zginających przy zachowaniu stosunku wysokości h do rozpiętości l w zakresie 1/12 do 1/32.
Czołownice ( poprzecznice), w których są osadzone koła jezdne, ze względów montażowych i transportowych wykonuje się z 2 części, które po ustawieniu na torze łączy się śrubami. Ogólnie mówiąc wykorzystywane są branży transport morski , transport kolejowy , transport samochodowy , logistyka. Znajdują swe zastosowanie w magazynach czy innych składowiskach.

Meblowa dolina krzemowa w Polsce

Meble biurowe, meble wypoczynkowe, meble sklepowe, meble drewniane, meble ratanowe, meble metalowe… Oto jak duży wybór produktów prezentują nam sklepy meblowe XXI wieku. Niegdyś ludziom wystarczały wyżłobione kamienie, krzewy i drewno, czy fragmenty skalne. Używano ich jak dzisiejszych wyposażeń mieszkań, czy punktów użyteczności publicznej. Powiedzieć można, że swego rodzaju luksus stanowiły wówczas meble ratanowe czy te meble wyrabiane z trzciny rzecznej. Meble metalowe weszły w użycie dość późno. Swoje przeznaczenie meble metalowe znalazły przede wszystkim występując w roli jako meble sklepowe. W sklepach także często spotyka się meble dość orientalne i wyjątkowe, bo tworzone na przykład z PCV. Znacznie rzadziej jako meble sklepowe spotyka się meble robione z drewna lub innych tworzyw. W meblarstwie biurowym i szeregu to meble biurowe królują w imporcie z Europy Zachodniej. Mam jednak nadzieje, że powstały stosunkowo niedawno na terenie województwa wielkopolskiego - Wielkopolski Klaster Meblarski zmieni te sytuacje. Specjalizować ma się on w produkcji mebli biurowych i mebli wypoczynkowych. Meble biurowe są w naszym województwie wyjątkowo popularne. Ma to związek przede wszystkim ze wzrostem gospodarczym i popularnością naszego województwa wśród inwestorów także zagranicznych. Do tej pory wszystkie przedsiębiorstwa działały w pojedynkę, co powodowało wewnętrzny wzrost konkurencji. Zjednoczenie ich wszystkich we wspólny Wielkopolski Klaster Meblarski. Pozwoli to na zwiększenie eksportu mebli z terenów wielkopolski na tereny zachodnie i rynki wschodnie. Przykłady tego typu działalności klastrowych stosowanych na zachodzie europy oraz w Stanach Zjednoczonych. Przykładem takiego najbardziej popularnego klastra jest dolina krzemowa. Na jej przykładzie widać jaki pozytywny wpływ ma ona na gospodarkę i rozwój objętego klastrem regionu. Szalenie istotne jest także zastosowanie szkoleń i podnoszenie kwalifikacji pracowników danych firm współpracujących w obrębie klastra. Wielkopolski Klaster Meblarski postawił na bardzo istotny i ważny element jakim jest współpraca ze światem nauki - z uczelniami wyższymi i regionalnymi instytutami naukowymi i rozwojowymi. Może on także liczyć na znaczne wsparcie finansowe i merytoryczne ze strony Polskiej Agencji Rozwoju Przedsiębiorczości i Wielkopolskiej Agencji Rozwoju Przedsiębiorczości.

Anteny u Ateny

Górzysta część kontynentalna Grecji i blisko 2000 wysp, to niemały problem w przypadku rozprowadzania sygnałów telekomunikacyjnych. Obiekty, wznoszone na szczytach gór są drogie w budowie, a ich zasilanie energetyczne też stanowi poważny problem.

Wielu turystów w Atenach, przychodzi obejrzeć widowiskową zmianę warty przed Grobem Nieznanego Żołnierza. Tuż obok, na budynku sąsiadującym z Parlamentem, zobaczyć można kilkumetrową antenę logarytmiczno- periodyczną zamocowaną na obrotnicy, służącą najprawdopodobniej do łączności krótkofalowej.

Budując swoje niedostępne klasztory na skałach Meteory, prawosławni mnisi szukali spokoju i odcięcia się od pokus tego świata. Materiały budowlane wciągali na linach. Do wielu klasztorów schody wybudowano dopiero w XIX i XX w. W równie trudnych warunkach stawiane są dziś obiekty telekomunikacyjne, dlatego dość popularne są rozwiązania kontenerowe, które można posadowić np. za pomocą helikoptera. Jednak w przeciwieństwie do klasztorów, nie są budowane dla ciszy, spokoju i kontemplacji.

Największym problemem eksploatacji infrastruktury telekomunikacyjnej, budowanej na wysokich szczytach, jest zasilanie. Na szczęście, w warunkach greckich, problem da się rozwiązać poprzez użycie kolektorów słonecznych.

Instalacje zbiorcze nie są powszechne w greckich miastach, stąd dominującym widokiem na dachach jest las anten.

Zwyczajowo, greckie dachy stanowią użytkową część domu, dlatego wyposaża się je w balustrady, które stanowią najczęstszą podstawę do mocowania anten.

W Grecji dostępnych jest 9 programów ogólnokrajowych i około 30 o zasięgu lokalnym. Ci, którzy chcieliby oglądać ich jak najwięcej używają obrotnic, które przestawiają antenę na wybrany kierunek.

W nadmorskiej części Grecji, zwłaszcza do retransmisji sygnałów na wyspy, nie potrzeba wysokich masztów, stąd zespoły anten stawiane są na 3-4 piętrowych budynkach biurowych.

Obraz greckiego rynku antenowego byłby niepełny, gdyby nie przedstawić anten stosowanych na łodziach, promach i jachtach, służących do radiokomunikacji, nawigacji, a także do oglądania telewizji satelitarnej.

Cały artykuł wraz z ciekawymi zdjęciami dostępny na stronie firmy Dipol www.dipol.com.pl

Jak Inzynier elektronik rozumie dusze ludzką i po co mu to??

Najpierw odpowiedzmy sobie na pytanie: PO CO?
Bill Gates (z całą pewnością największa sława w Internecie i komputerach) powiedział:


"Internet jest narzędziem, które zostało stworzone pod słowo mówione" Bill Gates

Wynika z tego, że elektronik posługujący się narzędziem "Internet" posługuje sie złym narzędziem, jeśli nie zrozumie do końca co to takiego "SŁOWO MÓWIONE".
Słowo mówione nie istnieje bez kontaktu minimum dwóch osób. Wysoka technologia (Internet i komputer) na nic się nie przyda bez kontaktu "człowiek-człowiek". Internet nie rozwiąże Twoich problemów na tym świecie, a z całą pewnością nie rozwiąże bólu Twojej duszy. Im bardziej rozwija się Internet, tym mniej pozostaje miejsca dla zwykłego kontaktu między ludźmi. W końcu, o ironio, zapominamy, że to tylko narzędzie i małymi kroczkami zbliża się do nas samotność, nieufność, alienacja, i w końcu nie jesteśmy zdolni usłyszeć bicia własnego serca.
Gdzie jest miejsce na wrażliwość, współczucie, przyjaźń, czy nawet miłość, jeśli będziemy oczekiwali od elektronicznego narzędzia czegoś zamiast?? Nieświadomie zaczynamy oczekiwać od tego narzędzia, że wymyśli za nas nawet cele życiowe. Dryfujemy po oceanie życia, a naszym sterem jest myszka, ENTER i DELETE. Ludzie, którzy nie mają celu w życiu, są słabi, rozczulają się nad sobą, i jeśli nawet szukają innego człowieka, to może po to tylko, aby razem z nim się porozczulać. Nie kochają już siebie i nie są w stanie pokochać innych ludzi. Powiadają, że kochać coś, to znaczy chcieć, żeby to żyło, czyli zrobić wszystko, co w naszej mocy, żeby to coś lub ktoś napewno żył. Jeżeli nie kocham siebie, to czy chcę żyć??

Mój cel życia jest odpowiedzią na pytanie: "PO CO ŻYĆ ??"

Nie można mówić o miłości do innych bez zrozumienia, ze miłość zaczyna się od nas samych. Każdy narcyz tak bardzo kocha samego siebie, że musi ciągle udawadniać, że jest największy. Szuka potwierdzenia, że jest najwspanialszy. Jeżeli ktoś naprawdę kocha samego siebie, nie potrzebuje takich potwierdzeń. Kiedy szczęście, bezpieczeństwo i dobre samopoczucie drugiej osoby jest dla Ciebie tak samo, a może jeszcze bardziej ważne jak Twoje własne, możesz powiedzieć, ze kochasz tę osobę. To wielka sztuka umieć zharmonizować własne potrzeby z potrzebami innych ludzi. Ludzie, którzy nie kochają, po prostu o nikogo się nie troszczą. W pamięci (jak w komputerze) przechowują starannie posegregowane urazy. Nie ufają innym. Poczucie bezpieczeństwa zapewnia im kolekcja masek na każdą okazję, albo Pan Komputer. Internet jest bardzo potrzebny, ale po to, żeby się jeszcze więcej czegoś nauczyć, żeby jeszcze lepiej poznać ludzi. A jeśli już naprawdę mądrze kochać siebie, to jest też dbać o siebie. O tym, jak o siebie dbać, będzie w innych opowieściach. Dobrze jest sobie zapamiętać, że

komputer nie odpowiada na pytanie:
Po co przyszedłeś na ten świat?
Odpowiedź znajdziesz w relacjach z ludźmi.

Z drugiej strony to dobrze, że masz komputer, bo Internet jest narzędziem, które ułatwi Ci szukanie tych ludzi. Komputer to mądre narzędzie, jeśli korzysta z niego mądry człowiek. Z całą pewnością mądrym człowiekim jest Pan Gates i z całą pewnością jest współczesnym symbolem wiekiego sukcesu i to on odkrył, że Internet jest tylko narzędziem, (które zostało stworzone pod słowo mówione).

Kochaj siebie i kochaj ludzi
- to najlepsze lekarstwo na utrzymanie
zdrowia psychicznego.

Twoje zdrowie fizyczne jest nie mniej ważne - pij zdrową i czystą wodę. Jedz tylko to co zawiera potrzebne do zdrowego życia składniki. Będzie o tym w innych artykułach.
Czy inżynier elektronik potrafi jeszce zrozumieć duszę ludzką? Na szczęście chce.

Klimatyzacja

Bezpieczna klimatyzacja powietrza, niegdyś po prostu luksus, obecnie staje się standardem, a często wręcz koniecznością. Technologia Hitachi nie tylko pomaga stwarzać chłodniejsze i bardziej komfortowe, klimatyzowane powietrze w domach i miejscach pracy, ale także zdrowsze niż kiedykolwiek wcześniej. Odpowiednia temperatura powietrza w pomieszczeniu daje nie tylko poprawę komfortu fizycznego i emocjonalnego, ale również zwiększa naszą efektywność.

Typ instalowanej klimatyzacji zależy od miejsca zastosowania, mogą to być:
· Obiekty mieszkalne – klimatyzacja do domu, klimatyzacja do mieszkania
· Obiekty handlowe – klimatyzacja do sklepu, klimatyzacja do apteki
· Biura
· Magazyny
· Hale produkcyjne
· Serwerownie
Największymi producentami klimatyzatorów na świecie są Hitachi, LG, Samsung, Fujitsu, MDVoraz Hisense.

Klimatyzacja - proces wymiany powietrza w pomieszczeniu, mający na celu utrzymywanie zadanych warunków klimatycznych, czyli odpowiedniego zakresu temperatur i wilgotności powietrza, zapewniających dogodne warunki do pracy i funkcjonowania człowieka (warunki komfortu) lub optymalne warunki dla określonego procesu przemysłowego (np. w przemyśle elektronicznym).
Podstawowe zagadnienia
· Warunki komfortu
Komfort cieplny - zespół cech mikroklimatu, który powoduje dobre samopoczucie człowieka.
Odczucia termiczne człowieka odnoszą się głównie do równowagi cieplnej całego ciała. Na równowagę tę wpływa: aktywność człowieka, odzież jaką ma na sobie, jak również parametry otoczenia: temperatura powietrza, średnia temperatura promieniowania, prędkość przepływu powietrza i wilgotność względna. Na podstawie badań prof. Ole Fangera opracowano normę ISO wg której wrażenia cieplne ciała ludzkiego przewiduje się za pomocą wskaźników PMV i PPD.
Z doświadczeń inżynierów klimatyzacji wynika, że optymalne warunki dla ludzi wykonujących lekką pracę (np. praca biurowa) występują przy jednoczesnym spełnieniu następujących parametrów powietrza wewnętrznego:
- temperatura: lato 23 ÷ 26°C; zima 20 ÷ 24°C
- wilgotność względna: 40 ÷ 60% (max 35 ÷ 65%)
- prędkość powietrza w strefie przebywania ludzi: 0,2 ÷ 0,5 m/s
Nie zachowanie któregokolwiek z tych parametrów może powodować u ludzi odczucie duszności, parności lub przeciągu. W zależności jednak od aktywności i odzieży człowieka, przyjmuje się różne zakresy parametrów powietrza wewnętrznego.
Oprócz odczuć termicznych, równie istotnym elementem komfortu jest przebywanie w czystym powietrzu o odpowiedniej zawartości tlenu.
· Mikroklimat technologiczny
Proces technologiczny może również wymagać zapewnienia odpowiedniego mikroklimatu. Oprócz jednak określenia optymalnych parametrów powietrza wewnętrznego, ważnym elementem jest tu utrzymanie założonych tolerancji wahań temperatury i wilgotności względnej czy prędkości powietrza.
Nie rzadko również proces technologiczny wymaga utrzymania odpowiedniej czystości powietrza (mechanicznej, chemicznej, mikrobiologicznej).
· Warunki zewnętrzne
Instalacja klimatyzacji musi być przygotowana do zapewnienia wymaganych przez użytkownika warunków wewnętrznych w każdych warunkach meteorologicznych. Na podstawie badań sporządzono tablice z obliczeniowymi parametrami zewnętrznymi takimi jak: temperatura, wilgotność powietrza, wietrzność i nasłonecznienie.
Dane takie publikuje m.in. US The Department of Energy na stronie „weather data” - są to informacje z 6 kontynentów i ponad 100 krajów na świecie.
Na terenie Polski parametry obliczeniowe powietrza zewnętrznego określa norma PN-76/B-03420.
· Parametry techniczne - sprawność
Sprawność urządzeń chłodzących i grzewczych określają dwa podstawowe wskaźniki wyrażane w W czyli EER i COP.
COP - (ang. Coefficient Of Performance) - Współczynnik wydajności chłodniczej - wyrażający stosunek mocy chłodniczej do mocy pobranej przez spężarkę urządzenia chłodniczego
EER - (ang. Energy Efficiency Ratio) - Współczynnik wydajności energetycznej - wyrażający stosunek mocy grzewczej do mocy pobranej przez urządzenie grzewcze

Opakowania tekturowe

Opakowania tekturowe znalazły idealne zastosowanie w prawie wszystkich firmach produkcyjnych. Ich największą zaletą są tanie koszty wyprodukowania, możliwość nadruku kolorowej grafiki oraz stosunkowo duża wytrzymałość. Opakowania kartonowe są wykonane z najgrubszego materiału papierniczego jakim jest tektura. Posiada ona nawet do 11mn grubości. Opakowania tekturowe możemy podzielić na:
opakowania tekturowe białe - nadają się do nadruku
opakowania tekturowe brązowe - duża wytrzymałość, nie nadają się do nadruku
opakowania tekturowe techniczne - bardzo duża wytrzymałość.
Opakowania kartonowe możemy podzielić również na:
opakowania kartonowe wykonane z tektury falistej bądź z tektury litej.

Opakowania tekturowe faliste powstają poprzez łączenie kilkunastu warstw papieru tekturowego tak zwana fala papierową, dzięki której opakowania zyskują znacznie na sztywności. Istnieją w zasadzie 3 najbardziej popularne rodzaje fali w tekturach trój warstwowych. Tak zwana fala B, fala C oraz fala E czyli mikrofala.



Powered by ScribeFire.

Technika w życiu codziennym

Rozwój technologiczny pozwala na udoskonalanie usług w każdej z gałęzi
przemysłu. innowacyjne technologie sprzyjają automatyzacji procesów
produkcyjnych, oraz zastępują czynnik ludzki.

Przybliżę teraz kilka urządzeń które ułatwiają prace w niektórych
firmach, mówiąc więcej funkcjonowanie niektórych przedsiębiorstw bez
tych maszyn było by niemożliwe.

Zacznijmy od drukarek drukujących etykiety samoprzylepne.

Urządzenia te coraz częściej wprowadzane są w firmach produkcyjnych.
Pozwalają na oznaczanie towarów. Etykiety samoprzylepne są drukowane
wraz z kodem kreskowym żądaną nazwą a później naklejane na właściwy
produkt. W marketach da sie również często zauważyć takowe urządzenia.
W działach z warzywami bądź owocami wagi elektroniczne zintegrowane są
z drukarką drukującą etykiety samoprzylepne. Umożliwia to bezproblemową
później obsługę na kasie.

Zastosowań gdzie można użyć etykiety do nadruku jest bardzo wiele.

Etykiety samoprzylepne posiadają kilka rodzajów ze względu na użycie
oraz zastosowany materiał do ich produkcji. Wyróżniamy etykiety
samoprzylepne termiczne i transferowe.

Następnym ciekawym urządzeniem które ułatwia nam życie ją ]wagi elektroniczne.
Trudno wyobrazić sobie osiedlowy sklep spożywczy w którym wagi
elektroniczne by sie nie znajdowały. Urządzenie jakimi są wagi
elektroniczne wyparło z użycia tradycyjne wagi szalkowe. Ich skal
owalność i precyzja w odmierzaniu są nie do porównania z wagami
szalkowymi.

Sms powiadomi cię o włamaniu - nowe kamery IP!

Do monitoringu mieszkania, domu warto zastosować kamery IP Pixord są to kompaktowe kamery, które można zamontować w dowolnym miejscu, polecamy modele P405 (K1133) oraz P405W (K1134).

Natomiast wersję bezprzewodową P405W (K1134) można w każdej chwili przenieść bez konieczności przerabiania instalacji. Kamery działają jako niezależne urządzenia sieciowe, można je wiec podpiąć poprzez router, np. TP-LINK TL-WR542G N2950, do Internetu. Dzięki temu można oglądać to, co się dzieje w domu z dowolnego miejsca na świecie.

Wszystkie kamery posiadają wbudowaną opcję detekcji ruchu, dzięki czemu możemy ustawić powiadomienie mailowe w przypadku wykrycia ruchu. W wysłanym przez kamerę mailu, w załączniku, będzie znajdował się w przypadku kamer:

- K1133, K1134 i K1135 krótki plik filmowy w mpeg 4 zawierający nagranie z wykrytego zdarzenia,
natomiast w przypadku kamer:
- K1130, K1131, K1132 i K2131 zdjęcia w pliku jpeg.


Jeśli zamówimy u usługodawcy pocztowego powiadomienie sms-owe o nadejściu wiadomości mailowej, to będzie to idealne rozwiązanie alarmowe informujące o wykryciu zdarzenia w domu (np. włamania).

Do każdej kamery jest dodawane oprogramowanie służące do rejestracji obrazów z kamer na komputerze, będzie on wówczas pełnił rolę rejestratora. Oprogramowanie umożliwia osobom znających login i hasło bieżący podgląd obrazu i dźwięku oraz sprawdzanie archiwalnych nagrań z dowolnego miejsca na świecie.

Do monitoringu zewnętrznego można polecić kamerę IP P400 K1131 lub P400W K1132 (wersja bezprzewodowa) w obudowie TS-806N M5406 plus uchwyt TS-609 M5141. Podstawowe atuty kamer IP Pixord to przystępna cena i szeroki wachlarz możliwości. Szczegółowa oferta kamer IP Pixord na stornie firmy Dipol www.dipol.com.pl w zakładce CCTV IP.

Powered by ScribeFire.

Jak prawidłowo okablować dom?

Coraz częściej instalatorzy decydują się na wykonanie okablowania w systemie SignalNET, który jest przewidziany do budowy dwuetapowej, umożliwiającej w dowolnym czasie w zależności od potrzeb klienta dołożenie urządzeń aktywnych.

Jak prawidłowo okablować dom?
Nowoczesne okablowanie stanowi podstawę funkcjonowania instalacji ważnych dla wygodnego zamieszkania w nowym budynku. Instalacje te stanowią o:

bezpieczeństwie - domofony, monitoring
dostępie do rozrywki – instalacja antenowa, komputerowa
komunikacji – telefoniczna, komputerowa
wygodzie - sterowanie domowymi urządzeniami

Trzeba pamiętać, że okablowanie budynku, w fazie budowy, stanowi niewielki koszt w stosunku do całej inwestycji.

System okablowania SignalNET służy do dystrybuowania sygnałów:
- telewizyjnych - od góry budynku (strychu)
- telefonicznych, komputerowych i domofonowych - od dołu (piwnicy)

Kanony wykonywania instalacji:

"podwójna gwiazda"
połączenie: góra – dół
punkty krosowe (strych, piwnica)
"Podwójna gwiazda"

Pojęcie "podwójnej gwiazdy", oznacza takie rozprowadzanie przewodów, aby ich początek stanowił punkt przyłączania urządzeń (gniazdo), a koniec punkt łączenia (krosowania) na strychu lub w piwnicy.

Kable używane do instalacji:
- po dwa kable typu skrętka (E1511) do każdego pomieszczenia. "Gwiazda" - mająca swój początek w dolnej skrzyni krosowej - domNet.
- jeden kabel koncentryczny (E1015) do każdego pomieszczenia. Wyjątek stanowią pomieszczenia, w których będą znajdować się źródła sygnału np. odtwarzacz DVD, kamera analogowa CCTV itp. wymagają one doprowadzenia dwóch kabli.

Połączenie góra – dół

Istotne jest zapewnienie połączenia pomiędzy sygnałami dochodzącymi do dolnej i górnej części budynku.
W kanale łączącym strych z piwnica należy położyć dwa kable typu skrętka i dwa kable koncentryczne.
Kanał łączący piwnicę ze strychem, powinien umożliwiać łatwą wymianę lub dołożenie przewodu. O ile rozprowadzanie przewodów w poziomie jest stosunkowo proste, to przewiercanie stropów sprawia problemy. Jeśli wykonamy połączenie góra – dół może ono pozwolić na przykład podłączenie telewizji kablowej do naszej instalacji bez dokładania dodatkowych kabli.

Punkty krosowe

Mogą to być tablice lub skrzynie elektryczne, jednak ze względu na ochronę urządzeń i przygotowanie do pełnionej funkcji polecamy specjalne skrzynie montażowe typu domNet (R96015) i TV Sat (R90554).

Wykonanie działającej instalacji będzie się składało z dwóch etapów:
I Etap inwestycyjny – położenie okablowania i gniazd
II Etap inwestycyjny - instalacja urządzeń aktywnych, która może być rozłożona w czasie, w zależności od potrzeb klienta.

Powered by ScribeFire.

Santa Rosa – Notebook do gier i nie tylko.

Na wstępie przypomnę, iż w poprzednich moich artykułach przedstawiłem kilka ważnych różnic pomiędzy komputerami stacjonarnymi, a laptopami oraz dokonałem porównania cen komputera stacjonarnego oraz notebook’a („Czy laptop Santa Rosa będzie dobrym wyborem?”). Jeżeli jesteś zainteresowany zapoznaniem się z tymi informacjami to zapraszam do poprzednich artykułów („Notebook czy komputer stacjonarny?”, „Tani, ale dobry notebook do wszystkiego”).

Poniżej prezentuję jedną z nowych platform notebook’owych i wyniki testów 3Dmarka przeprowadzone na tej platformie.

Kadłubek daje nam możliwość konfiguracji jego podstawowych podzespołów do naszych wymagań.

Podczas wyboru odpowiedniego notebook’a można zdecydować jakiej wielkości będzie matryca (14”, 15.4”, 17”) z jaką kartą graficzną (Intel, nVidia, Radeon) i od jakiego producenta (Asus, Toshiba). Ponadto można zdecydować jaki procesor zostanie zamontowany we wnętrzu (Celeron, Core Duo, Core 2 Duo), ile pamięci będziemy potrzebowali (1Gb, 2Gb, 3Gb, 4Gb) i jakiej wielkości dysk pomieści wszystkie dane, które chcemy na nim trzymać (od 60Gb do 160Gb).

Wkrótce powinny się pokazać nawet matryce dzięki czemu będzie można zdecydować jakiej jakości chcemy obraz w naszym laptopie.

Jak więc widać istnieje możliwość dopasowania praktycznie wszystkich parametrów komputera przenośnego do swoich wymagań.

Santa Rosa jest jedną z nowych platform, która jest wypuszczana na rynek z nową bardzo wydajną kartą graficzną NVIDIA GeForce Go 8600GS ze 128-bitową szyną.

Jest to bardzo mocna karta graficzna i w połączeniu z dobry i wydajnym procesorem pozwala osiągnąć bardzo dobre wyniki w testach. Poniżej przedstawiam testy przeprowadzone na jednym z modeli Santa Rosa, któren to model jest dostępny w naszym sklepie w Krakowie.

Na poszczególnych zdjęciach można zauważyć jakie wartości przyjął parametr FPS (Frames Per Second)
Optymalna wartość dla oka ludzkiego nie pozwalająca zauważyć przeskoku pomiędzy klatkami filmu to FPS równy 24.

Obrazek
3DMark-2003

Obrazek
3DMark-2003

Obrazek
3DMark-2003

Obrazek
3DMark-2003

Obrazek
3DMark-2003

Obrazek
3DMark-2005

Obrazek
3DMark-2005

Obrazek
3DMark-2005

Obrazek
3DMark-2005

Obrazek
3DMark-2005

No i oczekiwane wyniki to
Dla 3DMark03 – 7 858 3dmarków
Dla 3DMark05 – 4 433 3dmarków

Jak więc widać wyniki są bardzo dobre co świadczy o mocy obliczeniowej karty graficznej oraz o procedurach, które zostały zaimplementowane w jej procesorze.

Ponadto testowany model Asusa z omawianą platformą charakteryzował się bardzo dobrym wykonaniem i trwałą obudową. Nie zauważyliśmy podczas testów żadnych problemów typu trzeszcząca obudowa i skrzypiące zawiasy. Model ten jest odpowiednikiem modeli wypuszczanych na rynek przez Asusa i jedyną różnicą, którą zauważyliśmy jest kształt obudowy pozwalający na odróżnienie go od innych modeli.
Aktualnie w niektórych modelach producenci, aby zwiększyć atrakcyjność swoich produktów montują dodatkowe karty, urządzenia, itp. Jednak podstawowe elementy praktycznie niczym się nie różnią od pozostałych modeli.

Praktycznie przy zakupie takiego notebook’a możemy zapomnieć o wymianie tego komputera przez najbliższe kilka lat ponieważ można z czasem dołożyć pamięć lub zwiększyć dysk, a Vista działa na tym sprzęcie bez zarzutów. Tak więc, gdy już zostaniemy zmuszeni przesiąść się na nowy system nie będziemy musieli myśleć o zmianie sprzętu co jest ważne, aby nie wydawać ciągle pieniędzy na nowinki, które zalewają nasz rynek.

Jedną z zalet tego komputera jest gniazdo eSATA pozwalające na podłączenie zewnętrznego dysku SATA dzięki czemu możesz przechowywać filmy, muzykę i dane na zewnętrznym dysku o dużych pojemnościach przy wykorzystaniu prędkości z jakimi działają te dyski.

Co więcej, gdy używasz zewnętrzne urządzenia typu monitor 19”, zestaw głośników, zewnętrzną klawiaturę i myszkę i wiele innych, to teraz możesz je podłączyć za pomocą jednego złącza – portu replikatora (ASUS Portbar III 68-pin), który jest dostępny dla tej platformy. Dzięki replikatorowi nie trzeba za każdym razem, gdy się zabiera laptopa rozłączać tysiąca kabli. Wystarczy odłączyć replikator i po kłopocie.

Kolejnym atutem kadłubka jest gwarancja, która obejmuje poszczególne podzespoły tak jak w komputerze stacjonarnym. Z tego też powodu, jeżeli chwilowo nie posiada się dostatecznej ilości gotówki na tak mocną maszynę można wybrać tego notebook’a, ale z procesorem Celeron, który pozwoli zaoszczędzić trochę pieniędzy, a w przyszłości będzie można wymienić procesor na szybszy bez żadnych problemów i utraty gwarancji. Podobnie jest z dyskiem i pamięcią.

Jak widać sytuacja jest adekwatna jak przy komputerze stacjonarnym – możemy modernizować naszego laptopa i dostosować konfigurację do naszych wymagań lub portfela (karta zintegrowana z procesorem Core 2 Duo lub karta nVidia 8600GS z Celeronem).

Komputer ten jest dobrym wyborem i może zastąpić komputer stacjonarny będąc jego mobilnym odpowiednikiem nie tracąc na wydajności i nie obciążając naszego budżetu.

Czytelniku jeżeli stoisz przed wyborem nowego komputera i chciałbyś poznać możliwości opisywanej Santa Rosy to zapraszamy do naszego sklepu (Kraków, ul. Klimeckiego 14, Pawilon 19, sklep internetowy).
U nas jest możliwość sprawdzenia i przetestowania sprzętu za nim dokona się wyboru.

Powered by ScribeFire.

Czy laptop Santa Rosa będzie dobrym wyborem?

Zapewne posiadasz komputer w domu lub nosisz się z zamiarem kupna
jakiegoś. Jednak zadajesz sobie pytanie co wybrać. Czy “skrzynkę” czy
laptopa?





Jest to bardzo ważne pytanie ponieważ od niego zależy ile wydasz
pieniędzy, jakie będą możliwości tej przyjemności oraz jakie będzie
twoje zadowolenie z nowego zakupu. Dylemat pojawia się podczas
odwiedzin sklepów komputerowych, ponieważ aktualnie ceny notebook’ów są
porównywalne z cenami komputerów stacjonarnych.





STACJONARKA



- 785 zł – Płyta główna

(ASUS P5K DELUXE/WIFI-AP, P35,DualDDR2-1066,SATA2,eRAID,GBLAN,WLAN)




- 496 zł - Karta graficzna

(Asus EN8600GT Silent GeForce 8600GT 256MB)




- 110 zł - Obudowa



- 56 zł - Klawiatura i mysz



- 615 zł – Monitor

(Asus Monitor LCD MM17TE-B 17'', DVI, głośniki)




- 43 zł – Bluetooth

(USB BT Sweex 2.0 Klasa II)




- 205 zł – Dysk

(Seagate SV35; 160GB, Serial ATA/300, 7200RPM, 8MB)




- 638 zł – Procesor

(E6420, 2.13GHz, 1066FSB, 4MB)




- 283 zł - Pamięć

(Kingston 1GB 667MHz DDR2, CL5 DIMM)




RAZEM: 3 231 zł





Notebook (Asus S96S Santa Rosa 15.4'')



- 2 015zł - Płyta główna z obudową, grafiką, matrycą i podzespołami

(matryca 15.4”, grafika GeForce 8600 GS, WLAN, BT)




- 507 zł - Dysk

(Seagate 160GB, 7200RPM, SATA/300,8MB, NCQ, G-F.Prot.)




- 990 zł - Procesor

(C2D, T7200, 2.0 GHz, 4MB)




- 153 zł - Pamięć

(Kingston 1GB 667MHz DDR2)




RAZEM: 3 665 zł





RÓŻNICA: 434 zł

* ceny orientacyjne podane na dzień 07.07.07





Jak więc widać różnica pomiędzy podobnym pod względem parametrów
komputerem stacjonarnym, a laptopem jest stosunkowo niewielka: 434 zł.
Biorąc pod uwagę takie zalety jak mobilność jest to naprawdę nie dużo.



Jednak co z jego wydajnością?





Zacznijmy od początku. Czym jest komputer?

Komputer to zestaw elementów elektronicznych tworzących całość i
spełniających określone funkcje. W skład takiego zestawu wchodzi płyta główna, karta graficzna, procesor, dysk, nagrywarka CD/DVD, pamięć, obudowa, monitor, klawiatura i mysz. To są podstawowe komponenty zestawu komputerowego.

Takie same komponenty jak w komputerze stacjonarnym znajdują się
również w notebook’u. Tak więc na pierwszy rzut oka nie ma tutaj żadnej
różnicy. Dopiero biorąc pod uwagę szczegóły zauważamy jak wiele jest
różnic pomiędzy tymi niby takimi samymi maszynami.





Mianowicie notebook
jest mniejszy i mobilniejszy, pobiera mniej prądu, posiada większość
urządzeń peryferyjnych zintegrowanych i zawiera wyświetlacz LCD
(monitor). Jest cichy podczas standardowej pracy. Ponadto kupując
notebook’a dostajesz wszystkie komponenty w jednej obudowie i
praktycznie posiadasz możliwość podłączenia dodatkowych urządzeń, które
usprawnią pracę z laptopem.





Komputer stacjonarny jest duży. Osobno stoi skrzynka i monitor zajmując
dużo miejsca. Zasilacz pobiera znaczne ilości prądu w stosunku do
notebook’a, ponadto należy jeszcze dodać pobór prądu przez zasilacz
monitora. Wewnątrz skrzynki pracuje kilka wentylatorów (procesor,
grafika, zasilacz, …) wpływając na zwiększenie emitowanego hałasu.
Praktycznie w przypadku awarii lub potrzeby każdy element komputera
może być wymieniony niezależnie od pozostałych. Wszystkie podzespoły
można nabyć osobno lub w zestawie oraz istnieje możliwość dostosowania
konfiguracji spełniającej każde wymagania dowolnego oprogramowania
dostępnego na rynku.





Patrząc na te dwa opisy na pewno zastanawiasz się co by było gdyby
połączyć zalety notebook’a z zaletami komputera stacjonarnego?
Powstałby ideał komputera. Specjalnie nie pisałem o dostosowaniu
konfiguracji sprzętowej w przypadku notebook’a, aby zwrócić na to twoją
uwagę. Aktualnie jest to możliwe, ale o tym za chwilę.





Najlepszy komputer:

- mały,

- mobilny,

- posiadający wszystkie peryferia, które mogą mi się przydać podczas codziennej pracy i zabawy,

- cichy,

- oszczędny,

- dobre warunki gwarancji,

- możliwość wymiany poszczególnych elementow,

- możliwość skonfigurowania sprzętu w zależności od wymagań,

- duża wydajność.





Dla mnie są to kluczowe punkty, które kierują mną przy wyborze nowego
komputera. Sądzę, że twoje będą podobne nie zależnie czy się znasz na
sprzęcie czy też nie.

Zapewne uważasz, że notebook nie da Ci tego wszystkiego. Jeżeli tak
sądzisz to jesteś w błędzie. Nie dawno producenci sprzętu
elektronicznego wypuścili na rynek nowe platformy nazwane Santa Rosa.
Platformy te są wykorzystywane przez różnych producentów komputerów (HP, Fujitsu Siemens, Toshiba)
i można ich reklamy spotkać prawie w każdym dobrym sklepie
komputerowym. Platforma ta charakteryzuje się bardzo dobrymi osiągami
porównywalnymi z komputerami stacjonarnymi. Dzięki temu jest warta
polecenia i może zastąpić nasz stary poczciwy komputer stacjonarny.





Kadłubek daje nam możliwość konfiguracji jego podstawowych podzespołów do naszych wymagań.





Jeżeli jesteś nadal zainteresowany poznaniem możliwości kadłubka S96S Santa Rosa
to zapraszam do kolejnego artykułu (Santa Rosa – Notebook do gier) ze
zdjęciami i opisem. Artykuł ten pozwoli odpowiedzieć na pytanie
dlaczego lepszym wyborem jest komputer przenośny oraz przedstawi wyniki
testów w 3DMarku.

Powered by ScribeFire.

E-papier - technologiczna rewolucja

Myślę, że można śmiało zbadać dzieje świata biorąc pod uwagę
wydarzenia, które zmieniły życie całej ludzkości. Szczególnie ważne
wydarzenie nazywamy rewolucją, która diametralnie zmienia dotychczasowe
życie. Poczynając od rewolucji neolitycznej dzieje świata zanotowały
sporo podobnych wydarzeń czy teraz przyszedł czas na kolejną?



Wielu ludzi na pytanie: Co najbardziej zmieniło nasze życie w ostatnich czasach?, odpowiada: Internet,
zbliża się do nas kolejną innowacja, która być może równie silnie
zaważy na naszym codziennym życiu. Rewolucyjne zmiany zachodzą jednak w
tym przypadku na drodze ewolucji. Powoli lecz konsekwentnie najwięksi
potentaci na rynku nowoczesnych technologii prowadzą badania nad
e-papierem...



Elektroniczny papier ma zastąpić ekrany LCD,
plazmowe i inne urządzenia tego typu. Zamienione mają one przez
niezwykle cienkie i cechujące się lekkością papieru wyświetlacze
polimerowe. Zostały one zbudowane z aktywnej matrycy, pokrytej warstwą
elektronicznego atramentu, a wszystko zostało umieszczone na bardzo
cienkiej folii. Prototypowe jeszcze ekrany charakteryzują się
fantastyczną wręcz elastycznością. Pokaźny arkusz e-papieru można bez
obaw zrolować w tubę, której średnica wynosi zaledwie 2 cm. Ogromną
zaletą tych wielkoformatowych wyświetlaczy jest to, że są lekkie oraz
bardzo odporne na zniszczenia – można je wielokrotne zwijać, a one
nadal zachowają sprawność. Według koncepcji ich twórców mają w
przyszłości znaleźć szerokie zastosowanie w różnego rodzaju
urządzeniach mobilnych.



Dzięki temu, że e-papier
jest wyjątkowo giętki oraz elastyczny i ma minimalną grubość, łatwe
będzie zintegrowanie go z różnorodnymi urządzeniami codziennego użytku.
W przyszłości nawet zwykły długopis będzie mógł zostać wyposażony w
taki ekran, na którym obejrzymy np. teledysk. Nad takimi produktami
pracują największe technologiczne firmy na świecie: Philips, Nokia, Fujitsu, Sharp, Sony, Xerox, Kodak, IBM. Kolejka jest długa, a każda z nich chce zająć pierwsze miejsce w nowopowstającym rynku.



E-papier nie jest jedynie prototypem. Są już produkty tego typu, nie
znalazły jeszcze być może stałego miejsca na globalnym rynku, jednak
już dawno zyskały sobie wielu entuzjastów, którzy już dzisiaj skłonni
zapłacić za produkt bardzo wysokie ceny.



Wkrótce przyzwyczaimy się do korzystania z interaktywnych stron w
gazetach, które będą mogły łączyć się z Internetem. Słowo książka, możę
być zastąpione przez ebook,
który jest jej elektronicznym odpowiednikiem. Za pewien czas
standardowym wyposażeniem domów staną się tapety zmieniające kolor lub
prezentujące filmy, gdyż ściany będą zmieniać się w ekrany.
Zastosowanie tej technologii w czasopismach pozwoli na stworzenie
prawdziwych elektronicznych gazet, składających się tylko z jednej
strony, na której będzie można wyświetlać kolejne artykuły czy zdjęcia.
Co więcej, taki nośnik będzie długowieczny – zamiast kupować nową
edycję, po prostu załadujemy treść najnowszego wydania na posiadaną już
kartkę. Nawet najgrubsze książki przyszłości – czy wręcz całe biblioteki – także będą składały się z pojedynczych kartek e-papieru.



Wszystko wskazuje na to, że już wkrótce może rozpocząć się masowa
produkcja e-papieru, a wykorzystane elektroniki organicznej pozwoli na
znacznie obniżenie kosztów produkcji. Wprawdzie konstrukcja ta nie
pozwala na prezentację ruchomych obrazów (wyświetlacze te
charakteryzują się bardzo długim czasem odświeżania, który wynosi aż
sekundę), lecz dla zastosowania go w gazetach i książkach, gdzie
prezentowane są tekst i wykresy, nie ma to znaczenia. Opracowany już
nowy elektroniczny kolorowy papier, charakteryzujący się niskim
zużyciem energii. Dużą zaletą nowości jest tzw. zapamiętywanie obrazu –
możliwość prezentowania ostatnio wyświetlanego obrazu nawet po odcięciu
zasilania. Wynalazek wydaje się interesujący dla firm, które szukają
nowych zastosowań dla tego typu technologii. Kolory, które wyświetla
ten nietypowy ekran nie mają żadnego powiązania z wyginaniem urządzenia
lub przyciskaniem go, przez co nie tracą na jakości. Zasilanie wymagane
jest tylko podczas zmiany obrazu, dlatego też firmy uważają, że
rozwiązanie to idealnie nadaje się na np. plakaty oraz plansze
reklamowe w miejscach publicznych lub do bardziej energochłonnych
zastosowań elektronicznych. Ekran e-papieru zużywa od 0,01 do 0,0001 energii wymaganej do działania konwencjonalnego wyświetlacza. Na
pierwszy rzut oka trudno tu wietrzyć rewolucję - w końcu jeśli mamy np.
komórkę lub laptop podłączony do internetu, to możemy się połączyć z
serwisem internetowym tradycyjnej gazety, na którym informacje są
aktualizowane na bieżąco. Rzecz w tym, że np. na ekranie komórki
niezbyt wygodnie przegląda się wiadomości. Nieco lepiej jest z
laptopami, ale te są zwykle ciężkie (2-3 kg) i na baterii pracują tylko
kilka godzin. Minusem jest też to, że tradycyjne wyświetlacze świecą,
co przy intensywnym czytaniu jest męczące dla oczu. E-papier ma zaś tę
zaletę, że tekst widzimy w świetle odbitym, jakbyśmy czytali zwykłą
papierową gazetę. No i pożera znacznie mniej prądu.



Na rynku jest kilka wersji elektronicznego papieru - najpopularniejszą technologią jest na razie E-Ink,
czyli cyfrowy atrament. Na płachcie o grubości ok. 2 mm mamy
kilkadziesiąt milionów mikroskopijnych, czarno-białych kapsułek
zanurzonych w specjalnym oleju. Reagują one na bodźce elektryczne,
wyświetlając odpowiednio albo jasny, albo ciemny obraz. Ze złożenia
tych milionów kapsułek na wyświetlaczu pojawią się litery czy zdjęcia.
Weźmy na przykład iLiad - urządzenie stworzone przez spółkę
iRex Technologies (spółka zależna koncernu Philips). iLiad to czytnik z
wbudowanym elektronicznym papierem. Można podłączyć go do internetu
(np. bezprzewodowo, w standardzie Wi-Fi) iz serwera wydawcy ściągnąć
aktualne informacje. Ma pamięć o pojemności 224 MB - co przy obecnych
dyskach twardych nie robi może wrażenia, ale wystarczy na kilkadziesiąt
elektronicznych publikacji
zapisanych w postaci cyfrowej. Co więcej, elektroniczny czytnik może
odtwarzać pliki MP3. Podobne urządzenie o nazwie Librie promuje choćby
Sony. Urządzenia tego typu kosztują na razie ok 300-400 dolarów.



Firmy wciąż prześcigają się w tworzeniu innowacyjnych rozwiązań z
zastosowaniem e-papieru. Nowym rozwiązaniem, jakie przedstawił koncern Motorola
na konferencji 3GSM, odbywającej się w Barcelonie, jest zastosowanie
elektronicznego papieru jako ekranu telefonu komórkowego w celu
minimalizacji zużycia energii. Wykorzystanie e-papieru, zamiast
wyświetlacza LCD, znacznie obniża zużycie energii elektrycznej przez
urządzenie, a co za tym idzie, wydłuża żywotność baterii nawet do 12
dni. Kolejną zaletą zastosowania elektronicznego papieru jest możliwość
zmniejszenia rozmiarów telefonu. Pierwszym telefonem firmy Motorola, w budowie którego zastosowano elektroniczny papier jest ultracienki model Motofone F3.



Jak widzimy więc, technologia e-papieru może mieć szerokie zastosowanie
w naszym świecie. Tradycyjne książki mogą być zastąpione przez ebooki,
które zagnieżdża się zamiast na pólkach bibliotek czy ksiegrani, w
pamięci naszego czytnika e-papieru. Innowacyjne zmiany wymagają
poświęceń. Możliwe jest, że wiele dotychczasowych fabryk i firm może
przeżyć krzyzys, bądź wogóle zniknąć. Pamiętajmy jednak, że na ich
miejsce pojawią się nowe bądź dostosowane do istniejących potrzeb.
Osobiście z niecierpliwością czekam na rozpowszechnienia e-papieru.


Powered by ScribeFire.