Neue Werte, alter Mist
- Published in Archiv
- Written by Redaktion_Report
- Be the first to comment!
Das Gerät beinhaltet ein leistungsstarkes Software-Tool aus dem Hause Algorithmix. Dabei werden unerwünschte Geräusche, wie beispielsweise Knistern und Rauschen, in Echtzeit entfernt bzw. spürbar reduziert, wobei der authentische Sound der Originalqualität bewahrt wird.
Auch für die Apple-User gibt es ein spezielles Paket. Im Lieferumfang enthalten ist die effektive Roxio SpinDoctor Software.Zu kaufen gibt es den phono PreAmp iVinyl ab Mitte September für 129 Euro.
Features
• Für alle Plattenspieler mit Moving-Magnet-Tonabnehmern
• Externes, sorgfältig gegen Störeinflüsse abgeschirmtes Gehäuse
• 24Bit / 96 kHz-Samplerate
• Kein Anschluss an die Soundkarte notwendig
• Audioaufnahme und Stromversorgung über USB
• Einstellbare Eingangskapazität
• Präzise RIAA- Kurvenentzerrung für eine naturgetreue Wiedergabe
• Signal- Rauschabstand ; 86 dB br>• Phono- oder Line-Quelle auswählbar
Information Sharing:
Eine Besonderheit der neuen Fernseher ist das so genannte U-Home. Dabei geht es um Informationsaustausch innerhalb des Home-Entertainment-Netzes. So soll man über sein eigenes Home Ethernet, entweder über ein LAN oder ein W-LAN, Informationen zwischen Fernseher und Laptop schnell und unkompliziert austauschen können. Auch Wireless-TV ist möglich, womit der Kabelsalat nun endlich der Vergangenheit angehört. Einige Modelle sind auch mit einem USB-Anschluss ausgestattet. So können auf USB-Sticks oder auf einer mobilen Festplatte gespeicherte Daten problemlos eingelesen werden. Man hat ebenfalls die Möglichkeit einen Multi Card Reader anzuschließen. An der Vorderfront der Geräte befinden sich zusätzlich noch zwei Karten-Slots für verschiedene Media Cards, die mit einem Deckel vor Staub geschützt sind.
Entertainment:
Ein weiteres Merkmal der Fernseher ist die E-touch-Funktion, wobei der FPD-Bildschirm (Flat Panel Display) mit dem Finger bedient werden kann. Mit der Direct-Print-Funktion können Bilder mit ein paar Knopfdrücken auf der Fernbedienung über den USB-Stick oder die Memory Card ausgedruckt werden.
Verbesserungen im Audio- und Video-Bereich
- \"Die größeren LCD- und Plasma-Fernseher bieten dank \"Image Close to Nature\" (ICN) noch natürlichere Bilder.
- \"Digital Noise Reduction\" (DNR) reduziert den Effekt der Lautstärke auf die Bilder und sorgt für einen reineren Klang.
- \"Black Stretch\" schafft schärfere Schwarz-Kontraste und verbessert so das Gesamtbild.
- 32-bit Processing Drive (V32) ist eine Video-Enhancement- Technologie, die insbesondere für die größeren LCD- und Plasma-Fernseher geeignet ist. Das Videosignal wird schneller übertragen, das Abspielen von Videos läuft reibungsloser und bietet gleichzeitig kräftigere Farben.
- Eingebauter 3.1 Sound - neben den Lautsprechern an den Seiten haben die LCD-Fernseher von Haier noch einen zentralen Lautsprecher an der Unterseite. Somit hat man ein 3.0 Home-Theatre-Sound-System im Gerät eingebaut.
- NICAM (Near Instantaneously Companded Audio Complex) ist ein digitales Stereosystem, das von Haier weiter entwickelt wurde. Der Klang des Fernsehers soll die gleichen Stereoeffekte wie ein Besuch im Kino oder beim Live-Spiel im Stadion bieten.
über die Videofunktion kommt darüber hinaus Bewegung ins Bild, die Videoclips lassen sich in QVGA-Auflösung (320 x 240 Pixel) mit 24 Bildern pro Sekunde aufzeichnen und anschließend über das Farb-Display abspielen.
Nach der Aufnahme kann man die Fotos mit Hilfe der HP Photosmart Share ohne umfangreiche Dateianhänge per Email an Verwandte versenden oder natürlich ausdrucken - vergrößert bis auf DIN A4 und sogar Posterformat. Eine PictBridge- und eine USB-Schnittstelle sorgen für schnellen Datenaustausch.
Nützliche Extras
Neben dem integrierten Speicher von 16 MB lassen sich bei der HP Photosmart E427 auch SD-Karten mit einer Kapazität bis zu 1 GB zur Speicherung von Fotos und Videos verwenden.
Die ebenfalls mitgelieferten AA-Batterien können durch wiederaufladbare NiMH-Akkus ersetzt werden, die als Zubehör zusammen mit dem HP Photosmart Schnellladekit angeboten werden. Damit sind die Akkubatterien bereits nach einer Stunde wieder aufgeladen und einsatzbereit.
Die HP Photosmart E427 ist ab sofort zu einem Preis von 119 Euro im Fachhandel erhältlich.
Das Notebook verfügt optional über eine Docking-Station mit insgesamt 16 Anschlussmöglichkeiten für IT-Office-Peripherie, sowie einen Multibay-Schacht, der den Einbau einer zweiten Festplatte zur Speicherung großer Datenmengen ohne weiteres möglich macht. Mit einem zweiten Akku kann die Laufzeit noch weiter gesteigert werden. Bluetooth und W-LAN sorgen für Mobilität und perfekte Verbindung zu anderen Geräten oder Netzwerken.
Multi-Tasking dank Dual-Core-Technologie
Das PRO 8100 IWS ist durch den Einsatz von zwei Prozessorkernen im Intel Core 2 Duo Prozessor für Multi-Tasking und Multi-Thread-Anwendungen bestens geeignet - die Nutzer können zum Beispiel während des Betriebs rechenintensiver Programme Downloads oder Virenscans durchführen.
Mehr Sicherheit
Unternehmenskritische Daten sind gleich mehrfach geschützt: Durch Fingerprint-Sensor und Trusted-Platform-Modul. Der Fingerprint-Sensor liest den Fingerabdruck des Nutzers innerhalb weniger Sekunden und lässt sich im Gegensatz zu optisch arbeitenden Sensoren nicht durch Fotos täuschen. Dabei erfasst der Sensor mehr Daten als ein traditionelles \"picture capture window“ und beugt so einer fehlerhaften Identifizierung vor. Das Trusted-Platform-Modul (TPM) sorgt für zusätzliche Sicherheit. Durch diesen Hardware-Baustein können Daten nach Software-Attacken oder physischen Diebstahl nicht von Dritten gelesen werden. Eine mit dem TPM verschlüsselte Datei kann nur auf diesem Rechner nach erfolgreicher Identifizierung geöffnet werden.
Key-Features
- Intel Centrino Duo Mobiltechnologie mit Intel Core 2 Duo Prozessor
- Intel PRO/Wireless 3945 A/B/G
- Intel 945 PM Chipsatz
- Microsoft XP Professional
- 15,4 Zoll-WSXGA-Display (1680x1050 Pixel)
- 1.024 MB DDR2 RAM
- ATI Radeon X1600 Grafik mit 256 MB GDDR3 VRAM
- 120 GB Festplatte S-ATA
- Dual Laufwerk DVD+/-RW DL
- 56k Modem
- Intel High Definition Audio System
- Bluetooth, 1GBIT LAN. Firewire, Card Reader
- Multibay Schacht für 2. Festplatte, 2. Akku
- FingerPrint Sensor und TPM Modul als zusätzliche Security Features
- Optional Docking-Station, sehr viele Schnittstellen, zB. auch seriell
- 3 Jahre Garantie mit 12 Monaten Pick-up & Return Service
Das MAXDATA PRO 8100 IWS ist voraussichtlich ab Ende September zu einem Preis von 2.099 Euro im Fachhandel erhältlich.
Die Berger-Kaserne ging im Frühjahr an den Wiener Wohnbauträger Arwag, für das 115.000 m2 große Geländer der Kaserne in Leoben, die für 5,3 Millionen Euro an den Wohnbauträger Kohlbacher verkauft wurde und wo Doppel- und Reihenhäuser, mehrgeschossige Holzwohnbauten sowie Büro- und Gewerbebauten errichtet werden sollen, hatte sich die Gemeinde ein Geschäftszentrum gewünscht. Schleppend geht auch der geplante Verkauf der Babenberger-Kaserne in Wöllersdorf vor sich, den die BIG gemeinsam mit der Wilhelmskaserne vor vier Jahren gekauft hatte. Derzeit sei man mit einem Bieterkonsortium in Gesprächen, so die BIG. Wie viel sich das Ministerium für seine Liegenschaften in Summe erwartet, darüber kann nur spekuliert werden. Alle Zahlen, die im Raum herumschwirren, von 250 über 400 bis 700 Millionen, wie das Ministerium selbst meint, bis zu einer Milliarde, seien unseriös und spekulativ, meint Eichinger.
One ist auf dem CONEX-Event \"mobile business solutions 2006\" mit einem Workshop vertreten, bei dem mobile Anwendungen von den Besuchern live erlebt werden können. Ist Mobilität für Unternehmen überhaupt ein Thema?
Michael Fried: Mobiles Arbeiten wird bei österreichischen Unternehmen, sowohl bei den großen als auch im Bereich der Kleinstunternehmen, immer wichtiger. Im Telefoniebereich dominiert das Handy die Kommunikation. Mehr als die Hälfte aller Telefonieminuten wird bereits mobil durchgeführt und die Tendenz ist stark steigend. Produkte, wie die mobile Nebenstellenanlage von One, die eine flexiblere und kostengünstigere Alternative zum Festnetz darstellt, unterstützen diesen Trend. Auch im Datenbereich geht die Entwicklung in Richtung mobil. Ob mobiles Senden und Empfangen von Emails oder der mobile Zugriff auf Firmennetzwerk bzw. -daten, immer mehr Unternehmen statten ihre Mitarbeiter mit mobilen Endgeräten wie Smartphones, PDAs oder UMTS/HSDPA-Datenkarten für die Nutzung von mobilem Breitband, aus, mit denen auch eine Datenübertragung möglich ist. Maßgeschneiderte Mobile Office Lösungen, ob für Kleinstunternehmen ohne oder Firmen mit eigener Serverinfrastruktur, sind stark im steigen begriffen.
Gibt es besonders beliebte mobile Lösungen, auf die Businesskunden zurückgreifen?
Wir sind in einer spannenden Phase der mobilen Kommunikation. Der Wunsch, sich gänzlich von der Festnetztelefonie zu lösen, wird nun auch bei Unternehmen immer vehementer. Was noch vor einigen Jahren undenkbar war, wird jetzt Realtität: sich nämlich komplett auf mobile Telefonie zu verlassen. Das sieht man auch im Erfolg, den wir mit unserer mobilen Nebenstellenanlage haben - sie ist das erfolgreichste Business-Produkt der letzten Zeit. Daneben steigt auch die Nachfrage nach Mobile-Office-Lösungen. Nicht nur große Unternehmen sondern auch KMUs vertrauen auf unsere Lösung \"Outlook am Handy\" inklusive Push-E-Mail. Wir haben diese Produkt gemeinsam mit Microsoft und dem Internet Provider EUnet für Unternehmen ohne eigenen Server-Infrastruktur entwickelt.
Oft scheitert ja die Verwendung solcher mobiler Lösungen nicht am Willen des Konsumenten, sondern an der Technik. Kennen sie das Problem?
Der Mobilfunkmarkt war in der Vergangenheit sehr technikgetrieben. Daran sind sicherlich einige Produkte gescheitert. Es gilt nun, die Technik an die Bedürfnisse der Kunden anzupassen und nicht umgekehrt - also etwa einfach verständliche Anwendungen zu schaffen oder leicht zu bedienende Endgeräte anzubieten, die einen problemlosen Einstieg in die mobile Arbeitswelt ermöglichen.
Wie sieht Ihre Business-Strategie für den Herbst aus? Wird es neue Produkte geben?
Wir werden uns noch stärker den Kleinstunternehmen widmen und ihnen für ihre Bedürfnisse maßgeschneiderte mobile Lösungen sowohl im Voice- als auch im Datenbereich anbieten. Gerade bei dieser Zielgruppe sehen wir noch sehr großes Potential.
Michael Fried, 40, ist seit 1. April CCO der ONE GmbH. Der Betriebswirt hat die Leitung der Bereiche Marketing, Consumer Sales \" Customer Care bei One inne. Der Marketingexperte verweist bereits auf umfangreiche Erfahrung als Geschäftsführer, zuletzt war er CEO von Czech On Line, eines Tochterunternehmens der Telekom Austria in Tschechien. Als CEO/CMO der Jet2Web Internet GmbH zeichnete er für die Reintegration von Jet2Web in die Telekom Austria Gruppe und das Rebranding in Aon.at verantwortlich. 1999 machte Fried als Mitbegründer und geschäftsführender Gesellschafter der OneTwo internet Handels GmbH \"OneTwoSold\" von sich Reden. Der erfahrene Online- und Telekomexperte Fried studierte Handelswissenschaften an der Wirtschaftsuniversität Wien. Auf dem CONEX Forum Mobile Business Solutions 2006 am 4. und 5. Oktober 2006 zeigen ONE und zahlreiche weitere führende Anbieter mobiler Anwendungen und Technologie, sowie Praktiker aus unterschiedlichen Branchen, wie Mobility zur Wettbewerbsfähigkeit von Unternehmen beiträgt und wie mobile Technologien kosteneffizient, effektiv und sicher eingesetzt werden. Der ONE Workshop am 6. Oktober zeigt mobile Anwendungen und ihre Potenziale in der Praxis. Programm und Anmeldemöglichkeit auf www.conex.co.at. |
Um keinen Wettbewerbsnachteil zu erleiden, müssen Unternehmen Informationen, Daten und digitale Identitäten effizient verwalten. Effizient und ganz im Sinne des Betriebswirtschaftlers - möglichst kosteneffizient. Mit diesen Aspekten beschäftigt sich seit einigen Jahren die Disziplin des Identity Managements. Zunächst war dieses Thema ausschließlich organisationsbezogen - sprich es ging um den Austausch und die Verwaltung von Identitäten innerhalb eines Unternehmens. Ein sicheres Identity Management in einem anarchischen Konstrukt wie dem Internet schien zunächst unmöglich. Doch wer als Anwender weiß, was es heißt für jedes einzelne Internet-Serviceangebot ein separates Passwort einzurichten und sich noch in einigen Wochen daran zu erinnern welches nun zu welcher Webseite gehört. Welche Erleichterung würde die Verwendung einer einzigen service-übergreifenden Authentisierung bringen. Mit dem Ansatz eines einheitlichen Zugangskontrollfaktors beschäftigt sich Federated Identity Management. Ein funktionierendes System könnte dadurch mehr Vertrauen in die Abwicklung von Online-Geschäften nach sich ziehen - insbesondere wenn es um vertrauliche Transaktionen geht.
Identity Management als Enabler. Derzeit verändern sich nicht nur die Märkte sondern speziell die Technologien passen sich den neuen Gegebenheiten an. Wo bislang in Systemen gedacht wurde, ermöglichen serviceorientierte Architekturen und Web Services eine neue Sichtweise und Flexibilität. Es geht nicht mehr nur darum, mit welcher Software ein Prozess verarbeitet wird oder wie die Schnittstellen der Systeme miteinander kommunizieren - es geht vielmehr darum Services zu definieren und bereitzustellen. Das Denken in Services und Prozessen ermöglicht neue Geschäftsmodelle, vereinfacht die bedarfsgerechte Bereitstellung und wird auch das Verhältnis zwischen Management und IT-Abteilung ändern: letztere muss sich nämlich immer mehr an Geschäftsprozesse orientieren und wird somit zum Architekten von neuen Servicelandschaften. Das bedingt jedoch die Einigung auf Standards und die Förderung von Web Services. Ein gutes Beispiel hierfür ist der Ansatz des Federated Identity Management. Der praktische Nutzen liegt dabei auf der Hand. Der Anwender hat eine verbesserte Benutzerfreundlichkeit, denn das Verwalten zahlreicher Passwörter wird obsolet. Im Umkehrschluss könnte dies bedeuten: Wenn durch den Einsatz vertrauenswürdiger Technologien und Services, die auf offenen Standards basieren, der Anwender ein sicheres Gefühl und damit mehr Affinität für den Online-Handel erhält, werden Internettransaktionen rapide zunehmen. Somit gilt: “Ohne kontinuierliche vertrauensbildene Maßnahmen in E-Commerce gibt es keine Prosperität.“ Die Internetkriminalität konzentriert sich zunehmend auf den sogenannten Identitätsklau (Identity Theft). Phishing und Pharming lassen grüßen. Insbesonders Banken haben enorm mit diesem Thema zu kämpfen. Der Komfort des Online-Bankings aus Kundensicht spricht für seine Verwendung. Die drastische Zunahme an Phishing-Attacken hemmt jedoch zunehmend das Vertrauen der Bankkunden.
Was ist eigentlich Identity Management? Identity Management ist das aktuelle Modewort in der IT-Sicherheitsbranche. Jose Lopez, Sicherheitsspezialist bei Frost \" Sullivan, beschreibt Identity Management als einen Prozess, der die Authentifizierung, die Zugriffsrechte und die eingeräumten Vorrechte eines digitalen Nutzers verwaltet. Dieser Prozess erfordert drei wesentliche Schritte, nämlich die Nutzererkennung (Authentication), die Autorisierung (Authorisation) und das Beschaffungsmanagement der Nutzerdaten (Provisioning). Identity Management Systeme konzentrieren sich auf die Beherrschung der organisationsinternen Komplexität. Eine herkömmliche Lösung ist somit auch nicht für den Einsatz außerhalb der Unternehmensgrenzen gedacht. Daher gilt es zu überlegen, wie es gelingen kann, organisationseigene wie -fremde Informationssysteme und Nutzeridentitäten in verteilten Netzwerken zu integrieren und zu verwalten. Genau damit beschäftigt sich Federated Identity Management (FIM). |
Federated Identity Management soll gewährleisten, dass eine Partnerinstitution, die als Dienstanbieter agiert, über speziell ausgelegte Protokolle Zugriff auf die zur Authentifikation und/oder Abrechnung notwendigen Benutzerinformationen, bzw. -identitäten der eigenen Einrichtung erhält. Diese sogenannten Federated Identities sind auf wechselseitiger Anerkennung ausgelegt. Dabei authentifiziert die Heimateinrichtung (Identity Provider) ihre Benutzer (Identity Principal) und stellt Dienstanbietern Informationen über die Anwedner zur Verfügung, die es den Dienstanbietern ermöglichen zu entscheiden, ob die Benutzer auf eine geschützte Ressource zugreifen dürfen oder nicht. Um das hierfür notwenige Vertrauensverhältnis und einen organisatorischen Rahmen für den Austausch der notwendigen Informationen zu schaffen, schließen sich Identity Provider und Dienstanbieter in einer Föderation zusammen.
Damit ein FIM-System funktionieren kann sind unterschiedliche Voraussetzungen zu schaffen: eine multiprotokollfähige und in bestehende Systeme leicht integrierbare Referenzimplementierung rechtliche Rahmenbedingungen für verbindliche Regelungen bei Transaktionen sowie die Einhaltung der Datenschutzrichtlinien eine verteilte Netzinfrastruktur, die von den Beteiligten genutzt werden kann
Vertrauen in den Handel. Eine Welt, in der ein Anwender nur noch ein Passwort benötigt wäre doch eigentlich wunderbar. Technisch stellt eine Realisierung dieses Traums schon lange kein Problem mehr dar. Aber gerade bei der Verwaltung von Passwörtern wird deutlich, welche Rolle der Mensch im Sicherheitskontext hat. Vor lauter unterschiedlichen Passwörtern kommen viele Nutzer oft auf die glorreiche Idee, Passwörter aufzuschreiben und sie womöglich noch an den Monitor zu heften. Mal ehrlich - da kann man sich den ganzen Aufwand der Passwortvergabe doch von Anfang an sparen. Also wäre das schon eine tolle Sache - ein Passwort, das man sich noch gut merken kann und damit Zugang zu unterschiedlichsten Internetplattformen erhalten kann. Das war der eigentliche Ansatz für die Entwickler von Federated Identity Standards. Nur kommt jetzt ein neues, nicht zu unterschätzendes Problem auf: Wenn ein Anwender sich bei web.de mit seinem Passwort anmeldet und dann in den persönlichen ebay Account weitersurfen kann, mag das noch unkritisch sein. Aber ob ein Anwender sich sicher fühlt danach auch noch Online-Banking zu machen bleibt fragwürdig. Es fehlt an der Akzeptanz einer \"Trusted Authority“ und eines Mechanismus, der eine interne (1. Faktor) und externe (2. Faktor) Validierung der Identität ermöglicht ohne dabei Datenschutzbestimmungen zu verletzen.. Einer Einrichtung, welche die externe Validierung und die dazugehörigen digitalen Identitäten global verwaltet. Hier reduziert sich die ganze Technologie auf klassische psychologische Aspekte.
Das Unternehmen VeriSign hat unlängst ein Konzept entwickelt, das genau diesen Problemen Rechnung trägt. Die Lösung VeriSign Identity Protection (VIP) vereint den offenen Authentifikationsstandard (OATH) mit einer Soft- und Hardware-Token-Technologie um insbesondere den Zugang zu den Anwendungen und somit die Identitäten der Nutzer zu schützen. Mit einem Generator für Einmal-Passwörter (One Time Password - OTP) kann man sich dann bei den VIP-Kooperationspartnern PayPal, eBay oder Yahoo! anmelden. Die zugehörigen Token werden von den Partnerunternehmen an die Nutzer ausgegeben. Anwender können ihre Benutzerkonten so vor dem Zugriff Dritter schützen, da das Passwort nach jedem Zugriff ersetzt wird.
Alles soll und muss heute sicher sein: Die Daten im Archiv, Clients und Server, die Anwendungen im Netzwerk, die Benutzerdaten im Verzeichnis, der Firmenzugang übers Web, die Mails im Postfach, Blackberrys und Smartphones und die Flash-Speicher an der USB-Schnittstelle sowieso. Oft stellt die Absicherung jedes einzelnen dieser Bereiche mittlerweile eine eigene Disziplin dar. Speziell von der IT-Abteilung wird dabei sehr viel spezifisches Know-how abverlangt. Gerade bei der Konzentration auf einzelne Details läuft man Gefahr, den überblick zu verlieren. Dabei sind gerade überblick und Weitblick die Gebote der Stunde. überblick, weil sich die Teillösungen zwangsläufig irgendwann tangieren werden und sich zu einem großen Ganzen zusammenfügen lassen müssen. Weitblick, weil kein Teilbereich der IT sich der Forderung nach Sicherheit entziehen wird können. Die wirksame Verteidigung gegen eine schnell wachsende Zahl komplexer, räumlich und zeitlich verteilter Bedrohungen hat ihren Preis - insbesondere die Erhöhung der Komplexität des Gesamtsystems. Dementsprechend sind IT-Sicherheitslösungen, die über die Zeit von einem einfachen Virenschutz zu mehrstufigen Schutzzonen und Firewall-Einrichtungen gewachsen sind, oft sehr komplex, und benötigen ein hohes Maß an Expertenwissen für ihren Betrieb und ihre permanente Adaption an neue Bedrohungen.
In den Medien wird täglich von neuen Viren, Würmern, Spyware oder anderen Bedrohungen berichtet. Dabei fällt es nicht nur für den Laien sondern auch für den Experten zunehmend schwerer, eine klare Trennschärfe vorzunehmen. Blended Threats, Bots, Spam, Trojanische Pferde, Phishing, Pharming, Spoofing - allein bei der Typologie kann man schnell den überblick verlieren. Und die Bedrohungen werden täglich komplexer: Hinzu kommen technische Innovationen, die das Thema nicht gerade einfacher machen. Die Unterhaltungselektronik wird in Zukunft genauso mit der Informationstechnologie verschmelzen wie es für die Telekommunikation bereits zutrifft. Die VoIP-Technologie wird vermehrt in den Haushalten Einzug halten und bald Teil unseres täglichen Lebens werden. Welche Bedrohungspotentiale uns dann blühen, können wir uns derzeit nur annähernd ausmalen. An Spam auf dem E-Mail-Account haben wir uns ja mittlerweile gewöhnt. Aber Spam over Internet Telephony (SPIT)? Freilich, neue Kommunikationsplattformen bringen neue Bedrohungen mit sich - so funktioniert das Spiel. Also, stellen wir uns im Zuge der Nutzung von Internet Telephony innerlich schon mal auf eine Flut an unsinnigen Anrufen ein, die uns den großen Gewinnspielgewinn oder die Wahl zum Verbraucher des Monats versprechen. Der nächste Schritt scheint nur ein kleiner Sprung. ähnlich wie auf elektronischer Ebene: nach Spam kam Phishing. Und nach SPIT kommt PHIT (Phishing over Internet Telephony), oder auch Vishing genannt - da sind sich die Experten noch nicht so recht einig. über verlockende Angebote wird man zur Herausgabe persönlicher Daten verleitet.
Breite Attacken bleiben aus. Früher waren Angreifer daran interessiert möglichst viele Systeme parallel lahm zu legen, um durch derartige Attacken ein hohes Maß an öffentlichkeitswirksamkeit zu erzielen. Die Viren-Jäger haben jedoch reagiert und sind vor allem bei massenhafter Verbreitung von Malware in der Lage entsprechend schnell die neuen Signaturen im Virenscanner zu adaptieren. Seit einiger Zeit bleiben breit angelegte Angriffe aus und Hacker konzentrieren sich auf gezielte Attacken auf definierte Ziele. Dazu werden speziell programmierte Schädlinge bevorzugt langsam in Umlauf gebracht. Dieses Vorgehen verschleiert die Attacke und wird daher schwerer erkannt. Malware der heutigen Generation versteckt sich auf Systemen, übernimmt im Hintergrund das Zepter und inkubiert ein Netzwerk. Daten werden fehlgeleitet, Viren und trojanische Pferde gesteuert und Identitäten geklaut.
Bevorzugte Beute Information. Informationen sind in unserer elektronischen Welt zu einem unschätzbaren Gut geworden. Zugangsdaten zu Internet-Diensten, PIN und TANs oder persönlichen Informationen auf Kreditkarten stehen dabei genauso im Blickpunkt wie das Verhalten der Anwender beim Umgang mit dem Internet. Zusammen mit E-Mail Adressen, die die Schädlinge auf dem System vorfinden, werden diese Daten, vom Nutzer unbemerkt, gesammelt und an den Malware-Autor zurückgesandt. Der Klau von Identitäten stellt auch eine neue Form der Bedrohung dar. Hier handelt es sich tatsächlich um eine kriminelle Handlung. Wenn digitale Identitäten dazu missbraucht werden, Konten zu plündern stellt das ein Delikt mit neuen Dimensionen dar. Dann geht es nicht mehr nur um ein Infizieren von Systemen und um Publicity in der Hacker-Community. Der moderne Angreifer ist nicht selten in kriminellen Vereinigungen organisiert. Eine elektronische Attacke ist schließlich nicht so aufwendig umzusetzen wie ein Raubüberfall. Die Internetkriminalität konzentriert sich zunehmend auf den so genannten Identitätsklau (Identity Theft). Phishing und Pharming lassen grüßen... Insbesonders Banken haben enorm mit diesem Thema zu kämpfen.
\"Security by Obscurity“ greift nicht. Das Thema IT-Sicherheit wandelt sich von der technischen Ebene über die organisatorische hin zur zukünftig immer mehr an Bedeutung gewinnenden strategischen und gesellschaftlichen Ebene. Themen wie Virenschutz und Firewalls gehören selbst bei mittelständischen Unternehmen zum Standard, sind seit vielen Jahren etabliert und technische Innovationen auf diesem Gebiet kaum mehr zu erwarten.Immer mehr Angreifer richten ihre Attacken auf organisatorische Schwachstellen von Unternehmen. Die Sicherheitsexperten müssen daher versuchen, die auf einer höheren Unternehmensebene identifizierten Schwachstellen zu schließen.
Eines der Hauptprobleme, neben der reinen Identifikation von organisatorischen Schwachstellen, ist die Gewährung von Mitteln für organisatorische Maßnahmen. Beispielsweise die Sensibilisierung und Schulung der Mitarbeiter. Und die marketing-getriebenen Plattitüden, die sich in erster Linie des Angstfaktors bedient haben, sind in diesem Kontext absolut kontraproduktiv. \"Security by Obscurity“ greift nicht - es bedarf einer sachlichen und balancierten Vermittlung des Themas. Sensibilisierung schaffen und Bewusstsein bilden mittels einer offenen Kommunikation muss die Devise lauten.
Content Security als Maß aller Dinge? Content Security kümmert sich - wie das Wort schon aussagt - um die Inhalte von Daten- und Informationspaketen. Die EICAR (European Expert Group for IT-Security) unterscheidet dabei drei Säulen: Audit & Validation, Malware und Access Control. Dabei konzentriert sich Audit & Validation auf rechtlich relevante und organisatorische Prozesse während Malware und Access Control per se technische Aspekte im Fokus haben. Bei Malware geht der Trend klar zu proaktiven Maßnahmen.
Durch die immanente Medienpräsenz des Themas IT-Sicherheit, aber auch durch neue rechtliche Regelungen wie Basel II, welches IT-Sicherheit explizit als vergaberelevant herausstellt, spielt das Thema nicht mehr nur für Großkonzerne eine Rolle, auch klein- und mittelständische Unternehmen werden sensibilisiert. Firmen rüsten auf. Auch in einer Zeit der wirtschaftlichen Stagnation wird zunehmend in die Absicherung des eigenen Unternehmens investiert. Aufgrund der Komplexität des Themas und der begrenzten Sicht eines Individuums, oder auch eines einzelnen Unternehmens, fehlt jedoch häufig die Sicht für künftige Entwicklungen. Somit werden Probleme nicht proaktiv angegangen, sondern werden reaktiv beseitigt. Die frühzeitige Erkennung von neuen Gefahren und der Umsetzung geeigneter Gegenmaßnahmen kann jedoch nur durch entsprechende Technologien gewährleistet werden. Das Web bietet neue Schlupflöcher für Angreifer, die sich immer komplexerer Techniken bedienen.
Entsprechende Analysen sind notwendig, damit aufkommende Probleme schon vor Eintritt ins Unternehmensnetzwerk erkannt und frühzeitig angegangen werden können.Schutz auf Layer 8. Die Behaviour-Blocking-Technologie stellt ein so genanntes proaktives Verfahren zur Analyse möglicher Malware dar. Sie lässt sich anschaulich am Beispiel der Lösungen von Finjan, dem führenden Hersteller auf diesem Gebiet, erklären. Die Technologie analysiert aktive Inhalte (Active Content), die eventuell malicious Code enthalten, in Bezug auf ihr Verhalten. Dies passiert auf der Application-Layer Ebene - sprich die Anwendungen werden auf mögliche Schadcodes hin untersucht, bevor sie den Computer oder das Netzwerk erreichen. Dabei werden die Kombinationen der Operationen, die Parameter, Manipulationen an Skripten oder andere Exploits identifiziert und untersucht. In diesem Analyseprozess wird eruiert, ob Active Content (auch mobile code genannt) versucht, Schwachstellen auszunützen, um eine Anwendung oder ein System zu infizieren. Entsprechend der Unternehmensrichtlinien kann Finjan´s Lösung dann entscheiden, ob die Inhalte passieren dürfen, oder ob sie geblockt oder gar neutralisiert werden sollen.
Active Content bezieht sich auf Software-Komponenten, die in elektronischen Dokumenten eingebettet sind und Aktivitäten automatisch oder dynamisch ausführen und anstoßen können - oftmals ohne das Wissen oder die Zustimmung des Anwenders. Active Content kann (wie die Grafik verdeutlicht) zu Geschäftszwecken oder für Netzwerkangriffe eingesetzt werden. Active Content wird dem Anwender zugespielt, während er im Web surft. Um eine bessere Kundenzufriedenheit zu erreichen, bedienen sich Webseiten vieler interaktiver Funktionalitäten, wie beispielsweise Animationen oder kleinen interaktivem Anwendungen. Diese stellen oftmals das Transportmittel für Active Content dar. Die Schadcodes können aber auch über e-Mail, Dokumentenaustausch, Instant Messaging oder andere Kommunikationskanäle ausgetauscht werden. Man spricht in diesem Zusammenhang auch von mobile code auf Layer 8. Active Content operiert ein Layer über der Anwendungsebene. Durch den Einsatz von Active Content werden höher einzustufende Anwendungen wie CRM oder Web-Conferencing, die http als Transportvehikel und den Browser als Operationsplattform nutzen, ermöglicht. Anspruchsvolle Malware wie beispielsweise Spyware oder bestimmte Würmer lassen keine Fingerabdrücke im System zurück, die eine genaue Identifikation ermöglichen würden. Erst durch die Analyse der Verhaltensmuster wird ein Erkennen von schadhaftem Active Content möglich. |
Active Content schließt folgende Anwendungen ein:
Zusammenfassung. Eine ultima ratio, sprich einen hundertprozentigen Schutz gegen Attacken und unerwünschte Angriffe wird es nie geben. Mit einem proaktiven Ansatz nimmt man den Anwender weitgehend aus der Verantwortung. Der komplette Malware Schutz, einschließlich der regulären Updates läuft im Hintergrund ab und ist für den Benutzer nicht einsehbar. Hier könnte man die bereits angerissene Diskussion wieder aufblühen lassen. Wie viel \"Mündigkeit“ gestehe ich einem Anwender denn zu? Ist es in der heutigen Zeit, bei dieser Flut an diversen Bedrohungen überhaupt sinnvoll den Benutzer in die Verantwortung zu ziehen?
Ein integrierter Content-Security Ansatz beinhaltet idealerweise eine Kombination aus starken Authentifikationstechnologien sowie einer effizienten Analyse von Malware - bevor sie ins Netzwerk gelangt. Eine Kombination aus einzelnen Sicherheitsbausteinen scheint der sinnvollste Ansatz und erlaubt eine maximale Entdeckungsrate und damit einen hinreichenden Schutz.
Manuel Hüttl ist freier Journalist in München und Vorstandsmitglied der EICAR (European Expert Group for IT-Security)
Die Ausschreibung für den GSM-R-Ausbau in österreich wurde nach jahrelangem Zögern im April gestartet, eine Entscheidung für den Zuschlag für eine erste Teststrecke zwischen Wels und Passau wird für den Herbst erwartet. Einem weitaus größeren Unterfangen als den kolportierten 70 Millionen Euro möchte sich der Wiener Netzintegrator Kapsch CarrierCom aber im Nachbarland Ungarn widmen. Dort kann der Nortel-Partner die Karten auf die sprichwörtlich grüne Wiese setzen: Ein Analog-Zugfunksystem wie es die österreicher bereits im Einsatz haben, das die GSM-R-Erweiterung auf einen relativ günstigen Upgrade reduziert, existiert jenseits von Sopron nicht. Kapsch-Manager Horst Kaufmann rechnet mit einem Gesamtvolumen von 200 Mio. Euro, die dadurch in Ungarn schlagend werden.
Auch im Marktumfeld tut man sich nicht besonders schwer. Behaupten muss sich das Kapsch-Nortel-Konsortium aller Voraussicht nach nur gegen den Mitbieter Siemens. Der chinesischen Huawei werden aufgrund fehlender Referenzstrecken keine großen Chancen eingeräumt, da die Ungarn zwingend Testimonials existierender Lösungen fordern. Auch in österreich verpuffte das Ausschreibungsangebot an die Chinesen ohne jede Reaktion. \"Wir haben keine Antwort auf unsere Anfragen bekommen“, berichtet öBB-Sprecher Jörg Wollmann.
Zwar schätzt Kapsch-Spezialist Kaufmann die Asiaten als technisch gut aufgestellt ein, Kapsch könne aber mit der breiten GSM-R-Praxis in Tschechien und neuerdings auch in der Slowakei punkten. Vorstand Thomas Schöpf eröffnete Anfang September die Teststrecke Bratislava-Senec. Kapsch CarrierCom, das als Generalunternehmer bereits in Tschechien den internationalen Bahnkorridor IV mit GSM-R-Infrastruktur bestückte, kann damit in der Slowakei anschließen. Auch wenn der Ausbau bereits vor Jahren hätte beginnen können: Die Wiener gewannen den slowakischen Integrationsauftrag bereits 2002. Doch platzte der Deal nur Monate später - schuld war ein Regierungswechsel. 2005 wurde neuerlich verhandelt, Ende letzten Jahres dann zum zweiten Mal unterzeichnet. Geboten wird nun die ganze Bandbreite, bis hin zur eigenen Fertigung der On-Board-Units, die in Wien zusammengesetzt werden. Bis zum Jahresende will Kapsch das slowakische GSM-R-Netz um 90 Streckenkilometer respektive 14 Basisstationen erweitert wissen. Der Erfolg in Zentraleuropa wird in übersee durchaus registriert: Nortel kündigte bereits an, einen Großteil der Softwareentwicklung für GSM-R nach Wien zu bringen.
überhaupt, die Kanadier sind bei den Bahnfunk-Ausschreibungen dick drin: In Deutschland, das die Umstellung auf GSM-R stufenweise bis zum Jahr 2013 vorantreibt, werden derzeit alle Hauptstrecken der Deutschen Bahn mit Nortel-Equipment ausgerüstet. Während Siemens jüngst große Digitalfunk-Aufträge in Indien an Land ziehen konnte, hat Nortel auch in China einen Auftrag des Bahnministeriums gewonnen - und dort sogar den local hero Huawei ausgestochen.
Mobilfunk für Eisenbahner Um die national unterschiedlichen Regeln für die Bahnkommunikation zu standardisieren, beschlossen in den Neunziger Jahren 32 Eisenbahngesellschaften aus 24 Ländern Europas die technische Umsetzung eines einheitlichen Systems. Das digitale Mobilfunksystem GSM-R nutzt Frequenzen, die direkt unterhalb des klassischen GSM-900-Bandes liegen. Bei GSM-\"Railway“ sind weitaus mehr Funktionen als in herkömmlichen Funknetzen möglich. In den Zügen fest installierte GSM-R-Telefone sind mit Schnittstellen für Broadcast- und Gruppenrufsystemen ausgestattet, die eine Kommunikation mit definierten Benutzergruppen (etwa: alle Züge in der Region XY) ermöglichen. Für Bahnarbeiter oder Rangierpersonal gibt es Mobiltelefone, die normalen Handys ähneln, aber robuster sind. Zum Einsatz kommen Push-to-talk für Gruppenrufe und Ruftypen mit verschieden hohen Prioritäten, um bei Notrufen andere Gespräche unterbrechen zu können. Weiters: GSM-R ist als Trägersystem für ETCS (European Train Control System) vorgesehen und bildet somit die Basis für ein europaweites Signal- und Zugsicherungssystem. |