Kategorie: Wszystkie | IT | Motoryzacja | energetyka | finanse | nauka | technologia
RSS
środa, 18 lipca 2012
W co inwestować?

Niezależnie od tego czy już inwestujesz czy dopiero masz to w planach niewątpliwie zadajesz sobie pytanie w co inwestować? Jednoznaczna odpowiedź na pytanie niestety nie istnieje. Najpierw warto zastanowić się jaką kwotę mamy w ogóle do dyspozycji. Jeżeli są to niewielkie środki np. kilkaset złotych nie ma sensu przecież inwestować na giełdzie, gdyż prowizje będą większe niż wartość osiągnięta nawet z dodatnich stóp zwrotu. Chyba, że chcemy poznać samo narzędzie, jakim jest rachunek maklerski, w przeciwnym wypadku lepiej zakupić materiały szkoleniowe typu książki o tematyce pokrewnej i w ten sposób zainwestować w wiedzę, która może zaowocować w przyszłości.  

Gdy mamy do dyspozycji kilka tysięcy złotych do wyboru pojawia się znacznie więcej opcji. Konto brokerskie ma już w tej sytuacji rację bytu aczkolwiek jesteście zapewne świadomi, że co najwyżej zarobicie „na chleb” no chyba, że znajdziecie złotą spółkę, która w danym okresie przyniesie ponadprzeciętną stopę zwrotu. Operując takimi lub większymi środkami poprzez rachunek nie zapominajcie o dywersyfikacji własnego portfela. Spółki z różnych branż mogą zachowywać się w danym okresie zupełnie odmiennie, więc istnieje spora szansa, że podczas bessy nie wszystkie będą tracić. Przypominam, że inwestowanie na giełdzie wiąże się z koniecznością poświęcania określonego czasu na przegląd informacji z rynku, śledzenie informacji ze spółek itp. Notowania giełdowe staną się dla was niemal codziennością, później przyjdzie czas na własne analizy i strategie inwestycyjne. Ważna jest systematyka i oddzielenie emocji od podejmowania decyzji, by nie były zbyt pochopne.

Jeżeli macie mało wolnego czasu może warto zastanowić się nad funduszami inwestycyjnymi i oddać własne pieniądze w ręce zarządzających specjalistów. Są zalety i wady tego typu rozwiązania. Wyceny funduszy są dokonywane zazwyczaj co kilka dni, więc niestety podczas chęci sprzedaży na realizację zlecenia swoje trzeba odczekać.



poniedziałek, 09 lipca 2012
Nowy wymiar inwestowania poprzez serwis Stop-loss.pl

W sieci pojawił się nowatorski projekt serwisu giełdowego, który generuje w sposób automatyczny rekomendacje giełdowe. Mieliśmy okazję bliżej przyglądnąć się idei twórców, ponieważ oferują 30 - dniowy okres testowy. W ramach darmowego okresu użytkownik posiada dostęp do wszystkich funkcjonalności w serwisie. Zapewne możecie zastanawiać się gdzie wspomniane na wstępie nowatorstwo? Otóż pierwszą czynnością, jaką wykonuje inwestor jest określenie swojego profilu inwestycyjnego – użytkownik podaje m.in. takie parametry jak: posiadany kapitał na inwestycje, częstość zmian w portfelu, oczekiwany zysk w skali roku czy dopuszczalne ryzyko. Ma także możliwość wprowadzenia już posiadanych przez siebie akcji. W ten sposób w serwisie tworzy się spersonalizowane konto profilowe, dla którego systemowy algorytm numeryczny generuje codziennie aktualne rekomendacje giełdowe. Narzędzie może okazać się pomocne zarówno dla doświadczonych graczy, jak również osób, które nie są pewne w co inwestować. W systemie dostępny jest także ranking spółek w zależności od różnorodnych kryteriów zadanych przez użytkownika. Na ocenę systemu mamy aż 30 dni, co jest wystarczającym czasem na właściwą weryfikację przydatności serwisu w codziennej grze na giełdzie. Oczywiście poza rekomendacjami w ramach serwisu dostępne są aktualne notowania giełdowe, generator wykresów indeksów i spółek, komunikaty GPW i wiele innych przydatnych informacji dla inwestorów. Adres serwisu >> stop-loss.pl

niedziela, 26 grudnia 2010
Przyśpieszanie nauki

Wiele spośród najbardziej złożonych obliczeń numerycznych zyskuje dzięki GPU

Symulacja komputerowa może podejmować coraz większe wyzwania wraz z rozwojem technologii obliczeń równoległych. Potrzeba zrównoleglania obliczeń staje się szczególnie ważna w obliczu pytań o to jak produkować skuteczniejsze leki lub w jaki sposób wyglądał świat po wielkim wybuchu. Takie symulacje mogą wymagać milionów iteracji. W przeszłości architektura równoległa opierała się na klastrach procesorów CPU. Obecnie istnieje alternatywa w postaci wielordzeniowych kart graficznych. W efekcie dzisiejsze obliczenia numeryczne są znacznie szybsze niż kiedykolwiek wcześniej.

Kluczem do sukcesu procesorów graficznych jest umieszczenie kilkudziesięciu, lub nawet kilkuset rdzeni w jednym procesorze. Najszybsze obecnie komputery na świecie, w tym Chinski Tianhe-1A, który niedawno pobił dotychczasowego lidera listy Top500, Jaguara, zawdzięcza swój sukces w dużej mierze procesorom graficznym. Można przypuszczać, że przyszłością HPC są komputery łączące procesory CPU i GPU. Pytanie brzmi, w jaki sposób nauka może skorzystać w pełni z takich hybrydowych architektur?

Wady i zalety procesorów

Procesory graficzne pojawiły w celu akceleracji algorytmów obróbki grafiki. Szybko stały się gorącym produktem w świecie gier komputerowych. Procesory GPU stały się w końcu standardowym elementem kart graficznych, co otworzyło nowe możliwości dla systemów komputerowych. Zwykle obliczenia są wykonywane efektywnie na CPU, ale ta część algorytmu, która może być wykonana równolegle jest wysyłana do GPU.

Liderem wśród producentów procesorów graficznych jest NVIDIA, a tuż za nią plasuje się AMD, po przejęciu ATI. Najwięksi producenci procesorów, Intel i AMD, wciąż jednak koncentrują się na procesorach CPU, choć pracują również nad procesorami hybrydowymi CPU/GPU.

Wciąż jednak wybór pomiędzy CPU i GPU nie jest oczywisty. Jak zauważa Vijay Pande, dyrektor projektu Folding@home, procesory graficzne dysponują potencjalnie dużą większą mocą obliczeniową, jednak procesory CPU są bardziej wszechstronne. Projekt Folding@home, którego celem jest symulowanie zjawisk dynamiki molekularnej, dysponuje największą na świecie mocą obliczeniową, ponad 5 petaflopów. Dzięki tak imponującej mocy, nauka jest w stanie analizować dane na poziomie nieosiągalnym przy klasycznych metodach doświadczalnych.

Okiełznać fale

Wiele obszarów badań naukowych, takich jak akustyka, elektrotechnika, czy dynamika płynów, wymaga rozwiązywania równania fali, będącego liniowym równaniem różniczkowym cząstkowym drugiego rzędu. Firmy paliwowe wykorzystują to równanie w poszukiwaniu złóż ropy. Niedawno, grupa naukowców pod kierownictwem Dinesha Manochy rozwiązała równanie fali akustycznej przy pomocy wyłącznie procesorów graficznych, co pozwoliło przyśpieszyć obliczenia 100-krotnie.

Innym przykładem sukcesu procesorów graficznych jest algebra liniowa. Stan Tomov, naukowiec z Uniwersytetu w Tennessee, pracuje nad oprogramowaniem, które wykorzystuje maksymalne możliwości dostępnego sprzętu, niezależnie czy jest to klaster CPU czy procesor graficzny. Początkowo Tomov był sceptyczny wobec użycia procesorów graficznych w algebrze liniowej, ze względu na ograniczenia związane z dostępem do pamięci. Procesory GPU nowej generacji rozwiązują jednak ten problem za pomocą szybkiej pamięci podręcznej. W efekcie Tomov był w stanie przyśpieszyć swoje obliczenia 10-krotnie w porównaniu do klastrów CPU.

Symulowanie gwiazd

Kluczem do uczynienia z GPU podstawowej technologii do zastosowań naukowych jest wypracowanie rozwiązań ogólnych, które ograniczyłyby konieczność tworzenia specjalnego kodu dla każdego nowego problemu. Jednym z głównych problemów jest konieczność trzymania danych blisko procesora, który ma te dane przetwarzać tak, by minimalizować czas dostępu do danych. Co więcej, dla sprawnego przenoszenia kodu numerycznego, konieczne jest aby ten sam kod mógł być kompilowany pod różne architektury.

Martin Messer z Oak Ridge symuluje łączenie się pierwiastków w supernowie. Moc obliczeniowa oferowana przez klasyczne klastry CPU nie była wystarczająca do uzyskania realistycznych wyników. Prowadzona przez niego grupa naukowców pracuje aktualnie nad kodem, który zadziała na hybrydowym systemie składającym się z CPU i GPU. Dzięki temu Messer ma nadzieję uzyskać dużo większą precyzję obliczeń.

Podobne próby są podejmowane przez wielu naukowców. Na razie próba wykorzystania mocy GPU wiąże się nierozerwalnie z problemem przenośnego kodu, jednak nowe narzędzia programistyczne, takie jak OpenCL, oraz intensywność wydawania nowych bibliotek programistycznych napisanych w sposób przenośny pozwala mieć nadzieję, że już niedługo stosowanie GPU do użytku ogólnego będzie czymś naturalnym.

na podstawie Speeding up Science

 

 

Czytaj więcej na temat obliczeń o wysokiej wydajności na hpcsolutions.pl

01:38, opiolki
Link Dodaj komentarz »
sobota, 25 grudnia 2010
Komputerowa analiza chemiczna odkrywa HPC

Naukowcy z Uniwersytetu w Tennessee zmodyfkowali program do predykcji wlasności związków chemicznych tak, by wykorzystywał moc superkomputerów. Projekt ma do dyspozycji zasoby Oak Ridge National Laboratory, w tym jeden z najszybszych komputerów świata: Jaguar. Program bada miliony kombinacji związków chemicznych, głównie protein, w poszukiwaniu substancji, które mogą spełniać określone wymagania. Dzięki mocy superkomputerów, analiza miliona związków chemicznych może być wykonana w przeciągu jednego dnia. W ten sposób naukowcy mogą pozwolic sobie na dużo większą swobodę w badaniu różnorodnych klas związków, również takich, który do tej pory były ignorowane. Naukowcy podjęli współpracę z amerykańskim ministerstwem zdrowia, planując wspólnie poszukiwanie leku na raka prostaty.

na podstawie Supercomputers on Fast Track to New Drug Treatments

 

 

Czytaj więcej na temat obliczeń o wysokiej wydajności na hpcsolutions.pl

23:41, opiolki
Link Dodaj komentarz »
Małe i średnie przedsiębiorstwa rozważają skorzystanie z obliczeń o wysokiej wydajności

Trzydzieści lat temu ceny superkomputerów zaczynały się od 5 mln dolarów. Dwadzieścia lat temu dobry sprzęt można było nabyć już za milion dolarów. Dzisiaj wystarczy 100 tysięcy. W tym czasie rynek sprzętu HPC wzrósł z 2 do 8 miliardów dolarów. Czy to oznacza, że obliczenia o wysokiej wydajności zadomowiły się w przemyśle? Jak wskazują ostatnie badania, przemysł wciąż napotyka wiele trudności na drodze do pełnego wykorzystania możliwości HPC, ale sprawy wydają się dążyć we właściwym kierunku.

Amerykanskie małe i średnie przedsiębiorstwa, które poradziły sobie z wdrożeniem technologii HPC, jak np. dostawcy sprzętu lotniczego (BMI, Intelligent Light, L&L Products, Swift Engineering), odnotowują znaczące postępy w innowacji i gotowości wobec zmieniających się wymagań rynku. Organizacje rządowe starają się wspierać przedsiębiorców inwestujących w obliczenia o wysokiej wydajności. Tak to wyglada za oceanem. A skoro USA wyznacza trendy w IT, to możemy się spodziewać podobnego rozwoju rynku HPC w Europie.

na podstawie How Goes the Democratization of Supercomputing?

 

 

Czytaj więcej na temat obliczeń o wysokiej wydajności na hpcsolutions.pl

23:20, opiolki
Link Dodaj komentarz »
Wyszukiwanie słów w filmach

Firma UbiCast, oferująca usługę internetowych transmisji video, podjęła współpracę z firmą Nexiwave.com, specjalizującą się w technologii rozpoznawania głosu i wyszukiwania słów w ścieżce audio. W efekcie, firma UbiCast oferuje domyślnie swoim klientom usługę wyszukiwania fraz w filmach, umieszczanych w internecie za pośrednictwem ich serwisu.

Nowa usługa jest pierwszą tego typu usługą dostępną na duża skalę. Dotychczas, wyszukiwanie słów w ścieżkach audio było nieefektywne. Sytuację zmieniło zastosowanie technologii kart graficznych, które znacząco przyśpieszyły przetwarzanie danych dźwiękowych.

Oprócz wyszukiwania słów, nowa technologia daje możliwość konwersji ścieżki dźwiękowej na tekst, automatycznego tworzenia napisów do filmów, synchronizacji napisów ze ścieżką dźwiękową oraz rozpoznawania głosu.

na podstawie Nexiwave.com and UbiCast Partner to Offer GPU-Accelerated Deep Audio Search

 

 

Czytaj więcej na temat obliczeń o wysokiej wydajności na hpcsolutions.pl

20:04, opiolki
Link Dodaj komentarz »
OpenFOAM na GPU

Użytkownicy biblioteki OpenFOAM, służącej do sumylacji zjawisk dynamiki płynów, mogą cieszyć się z nowego pluginu, wydanego przez SpeedIT, który pozwala uruchamiać obliczenia na kartach graficznych. Dodatek został przetestowany na kartach NVIDII z serii Tesla. Zaletą nowego narzędzia jest umiejętność automatycznego podziału obliczeń na równoległe procesy oraz automatyczny wybór najszybszych spośród aktualnie dostępnych procesorów.

na podstawie OpenFOAM SpeedIT plugin 1.1 released

 

 

Czytaj więcej na temat obliczeń o wysokiej wydajności na hpcsolutions.pl

19:35, opiolki
Link Dodaj komentarz »
Nowy procesor od IBM'a już wkrótce, Intel i AMD idą łeb w łeb

IBM pracuje nad nowym wielordzeniowym procesorem BlueGene/Q. Ma on składać się z 18 rdzeni, z czego 1 rdzeń będzie przeznaczony wyłącznie do obsługi systemu Linux, a 1 rdzeń ma być redundantny, w celu zwiększenia niezawodności jednostki obliczeniowej. To cacko ma być podstawą architektury nowego superkomputera o nazwie Sequoia, o porażającej mocy obliczeniowej 20-petaflopów, którego IBM ma zamiar zbudować do 2012 roku. Moc obliczeniowa pojedynczego procesora BlueGene/Q powinna sięgać około 205 gigaflopów.

Tymczasem AMD pracuje nad swoim 16-rdzeniowym procesorem Interlagos, z architekturą Bulldozer. Teoretyczna moc obliczeniowa tego procesora to 224 gigaflopy. To dokładnie tyle samo, ile można spodziewać się od nowego procesora Sandy Bridge, przygotowywanego przez Intel.

na podstawie Manycore Ahead

 

 

Czytaj więcej na temat obliczeń o wysokiej wydajności na hpcsolutions.pl

19:20, opiolki
Link Dodaj komentarz »
Prognoza pogody może nareszcie stać się wiarygodna

Pamiętacie projekty o tajemniczych nazwach Seti@home, Folding@home, DrugDiscovery@home? Są to projekty polegające na prowadzeniu obliczeń numerycznych dotyczących danej tematyki, z wykorzysataniem do tego kompóterów z całego świata i łącz internetowych. Te totalnie rozproszone systemy dysponują większy mocami obliczeniowymi od najszybszych superkomputerów. Ostatnio do tej elitarnej serii projektów dołączył Weather@home, którego celem jest tworzenie prognozy pogody na podstawie analizy ogromnej ilości danych pogodowych z całego świata.

Projekt, który dopiero raczkuje, ma początkowo skupić się na terenach zachodniej części USA, południowej Afryki i Europy. Wadą systemu rozproszonego jest konieczność używania prostszych modeli pogodowych, ze względu na istotny wpływ czasu transmisji danych. Strata powodowana w ten sposób jest jednak rekompensowana przez dużo większą moc obliczeniwą. Podczas gdy zazwyczaj 30 iteracji algorytmu zadowala specjalistów od pogody, w ramach projektu Weather@home uzyskano już efektywność rzędu 45 tysięcy iteracji.

Każdy kto ma ochotę wesprzeć projekt, może użyczyć mocy obliczeniowej swojego komputera. Zainteresowanych odsyłamy do strony climateprediction.net/weatherathome

na podstawie Grass Roots Climate Modeling

 

 

Czytaj więcej na temat obliczeń o wysokiej wydajności na hpcsolutions.pl

18:34, opiolki
Link Komentarze (1) »
niedziela, 21 listopada 2010
Europa musi zainwestować w superszybkie obliczenia!

Komisja Europejska zleciła firmie International Data Corporation, specjalizującej się w badaniach rynku IT, analizę sytuacji na świecie w dziedzinie obliczeń o wysokiej wydajności i przygotowanie strategii rozwoju w tej gałęzi przemysłu komputerowego dla Europy. Wyniki analizy sugerują, że Europa musi wydać sporo pieniędzy, aby utrzymać się w walce o pierwszeństwo w świecie najnowszych technologii.

Raport przygotowany przez firmę IDC stwierdza, że Europa potrzebuje dalekosiężnego planu przodownictwa w dziedzinie wysoce wydajnych obliczeń. Plan ma być oparty na zapewnieniu najwyższej jakości zasobów naukowcom, inżynierom i analitykom, aby ich praca mogła być najbardziej produktywną i innowacyjną na świecie, zapewniając w ten sposób rozwój technologiczny i wzrost gospodarczy.

Adresatem technologii HPC (high performance computing) mają być nie tylko duże firmy i jednostki naukowe. Oczekiwany rozwój można bowiem osiągnąć jedynie poprzez stworzenie powszechnego dostępu do dużej mocy obliczeniowej tak, by mogły z niej korzystać również małe przedsiębiorstwa.

Planowane kroki to:

  • zwiększenie liczby, rozmiaru i dostępności zasobów HPC,
  • stworzenie centrów obliczeniowych o mocy liczonej w eksaflopach,
  • zachęcenie większej liczby studentów do zainteresowania się nauką, inżynierią i obliczeniami o wysokiej wydajności oraz przyciągnięcie do Europy specjalistów z całego świata,
  • produkcję oprogramowania przystosowanego do wymagań eksaflopowej i eksabajtowej technologii,
  • położenie szczególnego nacisku na rozwój kilki strategicznych obszarów zastosowania technologii HPC.

Realizacja powyższych zamierzeń ma do 2020 roku uczynić z Europy światowe centrum zastosowań superkomputerowych. Rozwój technologii ma przyczynić się zarazem do stworzenia nowych miejsc pracy, zarówno w nauce jak i przemyśle.

Specjaliści zwracają jednak uwagę, że pieniądze na rozwój technologii HPC muszą być wydawane rozsądnie. Należy wykorzystać istniejący potencjał Europy tkwiący w wysokiej jakości tworzonego oprogramowania. Europa ma także sukcesy w badaniach nad pogodą i zmianami klimatycznymi, energią odnawialną, projektowaniu pojazdów i samolotów, biotechnologii i fizyce molekularnej.

W ostatnich latach, udział Europy w rynku HPC spadł z 34 do 25 procent. Jednaocześnie, ostatnie badania potwierdzają ścisły związek pomiędzy poziomem technologii superkomputerowych, a konkurencyjnością przemysłu i nauki.

Raport sugeruje również, że Europa musi zjednoczyć siły, aby być w stanie konkurować z potęgami technologicznymi, takimi jak USA, Japonia, czy Korea Południowa. Konieczna jest zatem wymiana wiedzy i zasobów pomiędzy europejskimi krajami oraz wspólne strategie rozwoju.

na podstawie IDC Has Plan to Get European Supercomputing Back on Track

 

 

Czytaj więcej na temat obliczeń o wysokiej wydajności na hpcsolutions.pl

00:01, opiolki
Link Dodaj komentarz »
 
1 , 2 , 3 , 4 , 5

Skopiuj CSS