news ticker
leseecke








konjunktur
terminplaner




 

s
 
Nachrichten außer der Reihe: start 

aktuell: ab 29.09.2012

 

Zuvor

Davor:

Aktuell

Virenschutz 2012: "Nur eine Engine reicht nicht"

Kaspersky-Spezialist beleuchtet Schutzansätze im Wandel der Zeit

Magnus Kalkuhl: Kaspersky-Analyst über AV einst und jetzt (Foto: kaspersky.com)

Magnus Kalkuhl: Kaspersky-Analyst über AV einst und jetzt (Foto: kaspersky.com)

München (pte/29.09.2012/06:15) Seit gut 20 Jahren kämpfen Antiviren-Experten gegen Computerschädlinge, doch oft wird unterschätzt, wie viel komplexer das Problem in dieser Zeit geworden ist. "Ein AV-Scanner, der vor zehn Jahren funktioniert hat, bringt heute nichts", so Magnus Kalkuhl, stellvertretender Leiter des Kaspersky Lab Global Research & Analysis Team Germany http://kaspersky.com , im Rahmen des Kaspersky Security Symposium. Denn selbst 2002 war die Malware-Welt noch vergleichsweise einfach, signaturbasierte Scans mittels AV-Engine die ebenso simple Antwort.

Das sieht heute ganz anders aus. "Nur eine Engine reicht nicht, weil es komplexe Infrastrukturen gibt", erklärt der AV-Experte. Zur klassischen Engine sind diverse zusätzliche Funktionen wie beispielsweise URL-Blacklists und verhaltensbasierte Erkennungsmechanismen gekommen. In den nächsten Jahren wird es zudem nötig, dass sich AV-Lösungen auf Herausforderungen wie eine Multiplattform-IT-Landschaft und die Cloud einstellen.

Altes Konzept, neue Welt

Das Konzept des Computervirus ist überraschend alt: Schon 1949 hat der ungarisch-amerikanische Mathematiker John von Neumann es theoretisch erwähnt. Wirklich greifbar wurde es aber erst gut 30 Jahre später: Der "Elk Cloner" für den Apple II war 1982 einer der ersten Viren, die wirklich "in the wild", also nicht nur in dem Labor, wo sie entwickelt wurden, auftraten. Es folgten erste Schädlinge für diverse Systeme, beispielsweise den C64 (1985) und MS-DOS (1986). Die um 1990 entstehenden AV-Unternehmen hatten es zu dieser Zeit aber noch relativ leicht, da Malware primär über Datenträger wie Disketten weitergegeben wurde.

Selbst 2002 waren AV-Prozesse noch einfach, so Kalkuhl. Eine Sample-Datei wurde per signaturbasierter Engine gescannt und entweder als sauber oder verseucht erkannt. Seither aber hat sich die Malware-Welt rasant verändert, sowohl durch Vertriebsmöglichketen im Internet als auch neue technische Tricks. Download-Trojaner auf manipulierten Webseiten beispielsweise erzwangen URL-Blacklists und verbesserte Heuristiken als Schutzmaßnahmen, während Kaspersky auf die Gefahr durch Hacks legitimer Webangebote unter anderem mit JavaScript-Emulation und verhaltensbasierte Schutzmechanismen reagiert hat - die AV-Programme von heute sind also ungleich komplexer.

Immer neue Herausforderungen

Ein Ende des digitalen Wettrüstens zwischen Cyberkriminellen und AV-Anbietern ist nicht in Sicht. Eine aktuelle Herausforderung ist, dass die Vormachtstellung von Windows gebrochen ist, wir uns nicht zuletzt dank mobilen Betriebssystem wie Android in einer Multiplattform-IT-Welt bewegen. "Wir werden unsere Technologien definitiv daran anpassen müssen", betont Kalkuhl. Hinzu kommt, dass mobile Betriebssysteme, aber auch Windows 8 mit ihren App-Store-Usern eher vor fragwürdigen Downloads bewahren. "Wenn die Endgeräte sicherer werden, werden die Schurken sich mehr auf die Cloud konzentrieren müssen", meint der Experte. Das wird somit auch für die AV-Branche gelten.

Zudem erfordern immer ausgereiftere Cyberangriffe auch eine noch intensivere Zusammenarbeit in der AV-Branche. Dennoch ist offen, wie viel Schutz AV-Lösungen auf Dauer bieten können. Kalkuhl bemüht diesbezüglich einen Medizin-Vergleich: 1928 wurde Penicillin entdeckt, heute gibt es massive Probleme mit antibiotikaresistenten Keimen. Tatsächlich sind ja schon Cyberwaffen im Umlauf, die schwer zu entdecken sind (pressetext berichtete: http://pte.com/news/20120928004 ). Dadurch dränge sich eine schwere Frage in Sachen Malware-Schutz auf, so der Kaspersky-Spezialist: "Sollten die besten Lösungen nur für kritische Systeme vorbehalten bleiben?"

Hitachis Quarzglas-Diskette praktisch unzerstörbar

Quarzglas: hervorragender Langzeit-Speicher (Foto: pixelio.de, cc Jürgen Schuy)

Quarzglas: hervorragender Langzeit-Speicher (Foto: cc Jürgen Schuy)

Tokio (pte/28.09.2012/13:50) Der japanische Hightech-Konzern Hitachi http://hitachi.com hat in Tokio einen neuartigen Datenspeicher aus Quarzglas präsentiert, wie phys.org berichtet. Das extrem widerstandsfähige Material soll die sichere Verwahrung digitaler Information über Zeiträume bis zu 100 Mio. Jahren ermöglichen. Quarzglas ist wasserfest, hitzebeständig und unempfindlich gegenüber vielen Chemikalien. Lediglich ein Brechen der extrem harten Speicherplatte würde zu Datenverlust führen. Der vorgestellte quadratische Prototyp misst zwei mal zwei Zentimeter und ist nur zwei Millimeter dick. Die Daten werden mit einem Laser in Form von Binärcode als Punkte in das Quarzglas geschrieben.

Leicht lesbar

"Derzeit gibt es keine einfache, zufriedenstellende Lösung zur physikalischen Speicherung von Daten. Dieses System hat den Nachteil, dass es nur einmal beschrieben werden kann. Zudem muss die Übersetzung von Binärcode in Zeichen bekannt sein, um die Daten lesen zu können. Die Quarzglasspeicher machen nur Sinn, wenn Daten einmal digitalisiert und dann für lange Zeit archiviert werden sollen, etwa zur Aufbewahrung von Krypto-Keys oder als Mikrofilm-Ersatz. Für die breite Masse sehe ich weniger sinnvolle Anwendungen, für die Urlaubsfotos wird das Preis-Leistungs-Verhältnis wohl nicht reichen", sagt Nicolas Ehrschwendner, Geschäftsführer bei Attingo Datenrettung http://attingo.com , gegenüber pressetext.

Der Prototyp der Quarzglas-Diskette enthält vier Speicher-Schichten aus lasergeschriebenen Punkten, was in etwa der Datendichte pro Fläche einer CD entspricht. Die Entwickler sind aber überzeugt, dass sie ohne Probleme weitere Schichten hinzufügen können, was die Kapazität stark erhöhen würde. Zum Auslesen der Daten genügen ein optisches Mikroskop und ein Computer, der mit Binärcode umgehen kann. Ein entsprechendes Programm ist sehr einfach herzustellen und sollte auch in ferner Zukunft auf womöglich anders funktionierenden Computern leicht zu realisieren sein.

Langfristige Lösung

Die beteiligten Wissenschaftler sagen, dass die Technologie bereits für einen praktischen Einsatz zur Verfügung steht. Sie könnten sofort beginnen, Daten für Regierungen und andere Organisationen zu sichern. Hitachi ist aber noch unschlüssig, wann die Technologie in Serie produziert werden soll. In Tests wurden die Speicherplättchen zwei Stunden lang auf über 1.000 Grad erhitzt, ohne dass eine Änderung im Speicher beobachtet werden konnte. Gegen Strahlung und chemische Einflüsse ist Quarzglas ohnehin unempfindlich. Die Daten halten sich auf den durchsichtigen Quadraten praktisch ewig.

"Unabhängigkeit von Magnetismus ist durchaus wertvoll. Bombenangriffe, die elektromagnetische Strahlung nach sich ziehen, und Sonnenstürme können den Daten so nichts anhaben. Die Datendichte von 40 Megabyte pro Quadratinch halte ich nicht für sehr beeindruckend. Ob und wann das Produkt in Massenfertigung geht, bleibt fraglich", sagt Ehrschwendner. Die verantwortlichen Forscher glauben trotzdem an ihr Produkt.

"Die Menge an Daten, die täglich produziert wird, explodiert. Was die langfristige Aufbewahrung angeht, haben wir seit der Zeit der Steingravur nicht notwendigerweise dazugelernt. Die Gefahr von Datenverlust wächst sogar, durch wechselnde, manchmal inkompatible Technologien. Unsere Lösung garantiert lesbare Daten für eine sehr lange Zeit", sagt Chef-Entwickler Kazuyoshi Torii.


 

 

Zuvor

Amphibien sagen Erdbeben voraus
Forscher erklären Phänomen durch chemische Kettenreaktion

L'Aquila/Potsdam (pte) Amphibien sollten in Zukunft für die Frühwarnung von Erdbeben eingesetzt werden. Das schlagen Forscher aus England und den USA vor. Im "International Journal of Environmental Research and Public Health" liefern sie eine Theorie für eine rätselhafte Beobachtung, die rund um das Erdbeben 2009 in der italienischen Stadt L'Aquila dokumentiert wurde. Kröten der Region veränderten damals lange vor der Katastrophe plötzlich ihr Verhalten.

Verrückte Kröten

Fünf Tage vor dem Beben am 6. April beobachtete Rachel Grant von der Open University http://open.ac.uk , dass 96 Prozent aller Erdkrötenmänner einer Population ihr Laichgebiet verließen. Gemeinsam mit dem NASA-Geophysiker Friedemann Freund lieferte sie nun die Erklärung: Die Tiere erkennen chemische Veränderungen im Wasser, berichtet die BBC. Bestehende Spannungen in der Erdkruste lösen demnach in einer Kettenreaktion geladene Partikel im Boden, die im Grundwasser von den Tieren wahrgenommen werden können.

Kein sicherer Indikator

Franz Ossing, Sprecher des Deutschen Geoforschungszentrums http://gfz-potsdam.de , reiht die Begebenheit als "Sage" ein. "Hinweise gibt es immer wieder - dass etwa Elefanten oder Schlangen vor einem Beben verrückt wurden. Teils kann man dies etwa durch Vorbeben nachvollziehen, teils spielt wohl auch der Zufall mit. So stieg bei manchen Beben zuvor der Radongehalt im Boden, bei anderen jedoch nicht. Sichere Indikatoren sind durch derartige Beobachtungen nicht möglich", betont der Experte auf pressetext-Anfrage.

Klimawandel: Chance der Krise vorbei
Nach kurzem Einbruch wieder CO2-Rekordzuwächse

Norwich/Katmandu/Zürich (pte) Zehn Mrd. Tonnen CO2 hat die Menschheit im Vorjahr durch Verbrennung fossiler Rohstoffe, Zementproduktion, Entwaldung und Änderung der Landnutzung freigesetzt. Dieser bisherige Höchststand liegt um 49 Prozent über dem Wert von 1990, berichten Forscher vom "Global Carbon Project" http://globalcarbonproject.org in der Zeitschrift "Nature Climate Change" anlässlich der laufenden UN-Klimakonferenz in Durban. "Die Chance der Finanzkrise von 2008, um die Globalwirtschaft auf einen emissionsärmeren Weg zu lenken, wurde nicht genutzt", resümiert der norwegische Studienleiter Glen Peters.

Europas CO2-Outsorcing

Betrugen die CO2-Emissionszuwächse seit 2000 im Jahresschnitt 3,1 Prozent, erreichten sie 2010 wieder 5,9 Prozent, nachdem die Krise zu einem kurzfristigen Einbruch geführt hatte. Für 2011 rechnen die Forscher erneut mit 3,1 Prozent. Geht dieser Anstieg auch vorwiegend auf Schwellenländer zurück - China und Indien sind neben den USA, Russland und der EU die Top-Emittenten - liefert ein genauer Blick ein anderes Bild: Immer mehr Emissionen in ärmeren Ländern gehen auf Güter und Dienstleistungen zurück, die im Westen konsumiert werden. Betrug dieser "Outsourcing"-Anteil 1990 nur 2,5 Prozent der Emissionen der reichen Länder, waren es 2010 bereits 16 Prozent.

Himalaja schmilzt weg

Drastische Auswirkungen hat dies unter anderem auf die Gletscher. Das Thema ist heikel - musste sich doch der Weltklimarat 2009 für die Prognose des Verschwindens der Himalajagletscher entschuldigen. So weit lag der IPCC jedoch nicht daneben, behaupten Forscher vom nepalesischen International Centre for Integrated Mountain Development (ICIMOD) http://icimod.org . Um ein Fünftel sind die Gletscher im Himalaja seit 1980 geschrumpft, zeigen ihre Daten, zudem ging auch die Schneebedeckung seit 1990 deutlich zurück.

Diesen Wandel am "Dach der Welt" wird ein großer Teil der Menschheit zu spüren bekommen, so die Forscher: Häufige Dürren stehen der von den Himalaja-Flüssen gespeisten Regionen Asiens bevor, die 1,3 Mrd. Menschen mit Nahrung und Energie versorgt. Zudem ist das verschwundene Eis des Himalajas nach jenem der Arktis und Antarktis der größte Verursacher des steigenden Meeresspiegels. Auf ähnliche Schmelzprognosen kommen jedoch auch Schweizer Forscher: 2050 werden Europas Flüsse kein Schmelzwasser mehr führen (pressetext berichtete: http://pressetext.com/news/20110725024 ).

Mensch ist Hauptverursacher

Eine Antwort auf Skeptiker, die den menschlichen Beitrag zum Klimawandel in Frage stellen, liefern Klimaforscher um Markus Huber und Reto Knutti von der ETH Zürich http://iac.ethz.ch in der Zeitschrift "Nature Geoscience". Zu mindestens 74 Prozent sind vom Menschen ausgestoßene Treibhausgase an der Globalerwärmung schuld, besagen ihre Simulationsrechnungen der Schwankungen im globalen Energie- und Strahlungshaushalt. 0,85 Grad habe der Mensch die Erde seit 1950 erwärmt, wobei kühlende Aerosole in der Atmosphäre diesen Anstieg auf 0,56 Grad beschränken. Die veränderte Sonneneinstrahlung ist nur für 0,07 Prozent verantwortlich.

Originalstudien unter http://nature.com/ngeo/journal/vaop/ncurrent/full/ngeo1327.html

Langschläfer genetisch vorprogrammiert
Menschen mit Gen ABCC9 brauchen deutlich mehr Schlaf

Edinburgh/München (pte) Menschen, die gerne ausschlafen, können jetzt eine gute Entschuldigung dafür haben. Diese Vorliebe ist laut Wissenschaftlern der University of Edinburgh http://www.ed.ac.uk und der Ludwig-Maximilians-Universität München http://www.uni-muenchen.de zumindest teilweise genetisch bedingt. Das Team um Jim Wilson analysierte die Daten von mehr als 30.000 Menschen in ganz Europa. Es zeigte sich, dass jene die über das Gen ABCC9 verfügten, rund 30 Minuten mehr Schlaf pro Nacht brauchten. Einer von fünf Europäern trägt dieses Gen laut den in Molecular Psychiatry http://nature.com/mp veröffentlichten Studienergebnissen in sich.

Einstein schlief elf Stunden

Alle Teilnehmer lieferten Berichte darüber ab, wie lange sie geschlafen hatten und stellten eine Blutprobe für die DNA-Analyse zur Verfügung. Wie viel Schlaf ein Mensch braucht, kann sehr unterschiedlich sein. Margaret Thatcher kam mit vier Stunden pro Nacht aus, Albert Einstein brauchte elf. An der Studie nahmen Menschen von den Orkneyinseln, aus Kroatien, den Niederlanden, Italien, Estland und Deutschland teil. Alle wurden nach ihren Schlafgewohnheiten an ihren freien Tagen gefragt, also an Tagen, an denen sie nicht zu einer bestimmten Zeit aufstehen mussten, Schlaftabletten einnahmen oder Schichtdienst hatten.

In einem nächsten Schritt verglichen die Wissenschaftler diese Zahlen mit den Ergebnissen der genetischen Analyse. Es zeigte sich, dass Teilnehmer mit einer Variation des Gens ABCC9 mehr als die durchschnittlichen acht Stunden Schlaf brauchten. Fruchtfliegen verfügen ebenfalls zum Teil über dieses Gen. Fruchtfliegen, die es nicht haben, schliefen drei Stunden weniger als normal. ABCC9 spielt bei der Messung der Energiewerte in den Zellen eine wichtige Rolle. Die Wissenschaftler hoffen, dass damit ein neuer Ansatz für die Schlafforschung gefunden ist. Sie wollen jetzt herausfinden, wie genau diese Genvariante die Länge des benötigten Schlafes beeinflusst, berichtet die BBC.

Perfekte Tarnung: Parasiten stehlen Ameisenduft
Silberfische erschleichen sich Integration mit chemischen Signalstoffen

München (pte) Parasitische Untermieter von Ameisenkolonien überlisten die Ameisen durch imitierte Signalstoffe. Parasiten, wie etwa Silberfische, ziehen sich quasi eine chemische Tarnkappe über. "Auf welche Weise Parasiten chemische Substanzen erhalten, war bisher unklar", sagt Volker Witte vom Department Biologie der Ludwig-Maximilians-Universität München http://bio.lmu.de . Gemeinsam mit seinem Doktoranden Christoph von Beeren gelang ihm nun der Nachweis, dass parasitische Silberfische die Signalstoffe nicht etwa selbst produzieren, sondern den richtigen Duft von ihren Wirten stehlen.

Duftübertragung durch Reiben

Durch intensives Reiben übernehmen die Silberfische die chemischen Signalstoffe auf der Körperoberfläche der Ameisen und erschleichen sich so die soziale Integration in die Kolonie. "Die Silberfische vermehren sich im Ameisenhaufen", sagt von Beeren gegenüber pressetext. Die Larven der Silberfische halten sich bei den Ameisenlarven auf und werden beim Umzug der Kolonie mittransportiert. Ameisenkolonien sind für Parasiten und Räuber sehr verlockend, da sie dort einen reich gedeckten Tisch und einen geschützten Lebensraum vorfinden.

Insekten wie Ameisen, Bienen oder Wespen müssen Nestgenossen von Feinden und Parasiten unterscheiden können. Dies schaffen sie vor allem mithilfe chemischer Signalstoffe. Bei Ameisen etwa tragen alle Koloniemitglieder eine komplexe Mischung bestimmter Moleküle - vor allem Kohlenwasserstoffe - auf ihrem Körper, die sie als einheimisch identifizieren. Trotzdem verschaffen sich Parasiten häufig Eintritt in die Kolonie und nutzen deren Futtervorräte oder fressen sogar die Brut. Dazu nutzen sie ein Phänomen, das als chemische Mimikry bezeichnet wird.

Wasserstoff-Isotop Deuterium als Schlüssel

Parasiten parfümieren sich mit dem Duft ihrer Wirte, indem sie deren chemische Oberflächenstoffe nachahmen. Wo Parasiten diese Stoffe herbekommen, blieb offen. "Theoretisch können sie die mimetischen Substanzen entweder vom Wirt stehlen oder diese selbst herstellen", sagt von Beeren. Um die Herkunft der Tarndüfte aufzuklären, kennzeichneten die Wissenschaftler Arbeiterinnen einer Treiberameisenkolonie mit sogenannten deuterium-markierten Molekülen. Deuterium ist ein schweres Wasserstoff-Isotop, das leicht ermittelt werden kann.

"Dieses Deuterium tauchte dann bei den Silberfischen wieder auf - da es nur von den Ameisen stammen konnte, müssen die Parasiten die Oberflächenstoffe ihrer Wirte gestohlen haben", erklärt von Beeren. Übertragen werden die Stoffe durch intensiven Körperkontakt: Die Silberfische reiben sich an ihren Wirten und parfümieren sich so mit dem richtigen Duft. Eigene Oberflächenstoffe scheinen sie nicht zu produzieren, denn die Konzentration aller Oberflächenstoffe nahm ab, wenn die Silberfische von den Ameisen isoliert wurden.

Ungeklärt war, ob die Akzeptanz des Parasiten im Nest vom Grad der chemischen Ähnlichkeit abhängt. Ob also Individuen, die sich nicht ausreichend chemisch tarnen, häufiger attackiert werden als solche mit perfekter Maskierung. Dies konnten die Forscher bestätigen: "Zuvor isolierte Silberfische, bei denen die Konzentration der Oberflächenstoffe abnahm und somit auch die chemische Ähnlichkeit zu ihrem Wirt, wurden von den Treiberameisen attackiert und teilweise sogar erbeutet", so von Beeren - ohne verführerischen Duft gibt es kein Asyl im Bau.

 

 

Menschheit vergisst schneller als je zuvor

Cambridge (pte/17.12.2010/11:10) - Die fortschreitende Digitalisierung der Bücher erlaubt es erstmals, die Kultur des Menschen auch mathematisch zu rekonstruieren. Wissenschaftler von Google und der Harvard University haben am heutigen Freitag das Online-Tool "Culturomics" http://www.culturomics.org präsentiert, das in Sekunden die Häufigkeit des Aufscheinens jeglicher Stichworte in den Büchern der vergangenen 500 Jahre zeigt. Durch die leicht bedienbare Geschichtsrecherche konnten Forscher bereits beweisen, dass die Menschheit immer schneller ihre eigene Vergangenheit vergisst.

Jährlich 8.500 neue Wörter

Google hält in seiner Bücherdigitalisierung mittlerweile bei 15 Mio. gescannten Exemplaren, was zwölf Prozent des gesamten Bücherbestands der Menschheit ausmacht. Die Culturomics-Wortanalyse greift auf ein Drittel davon zurück und durchforstet Bücher aus sechs Weltsprachen - darunter auch Deutsch, wobei allerdings 72 Prozent aus dem Englischen stammen. Während sich das Tool laut seinen Erfindern besonders für Geschichtsrecherchen von Schülern eignet, lieferte es auch schon erste wissenschaftliche Erkenntnisse, die in der Fachzeitschrift "Science" publiziert wurden.

Besondere Stärken zeigt Culturomics in der Erforschung von Sprache und ihrer Entwicklung. Den Forschern um Jean-Baptiste Michel zufolge wächst der englische Wortschatz jährlich um 8.500 Wörter, wodurch es im Jahr 2000 bereits 70 Prozent englische Wörter mehr gab als 1950. Der Großteil dieser Wörter - die Autoren tippen auf 52 Prozent - schafft es jedoch nie in die offiziellen Wörterbücher. Bücher erlauben auch Rückschlüsse auf den technischen Fortschritt. So entwickelt sich die Technik seit Beginn des 19. Jahrhunderts explosionsartig, wobei sich Innovationen im Jahr 1900 doppelt so schnell verbreiteten als noch 1800.

Drastische Folgen der Zensur

Erfolgreiche Menschen genießen heute mehr Ruhm als je zuvor und Promis sind jünger als im 19. Jahrhundert. Die bekanntesten Schauspieler sind bereits mit 30 Jahren berühmt, Schriftsteller erst mit 40 Jahren, während Politiker meist erst mit 50 ihr Popularitätshoch erreichen. Ebenso wie Menschen heute schneller berühmt werden, vergisst man sie jedoch auch schneller. Denn ganz grundsätzlich vergisst die Menschheit jedes Jahr schneller als zuvor, was die abnehmenden Verweise auf die Vergangenheit zeigen. So halbierte sich etwa die Zahl der Rückverweise auf Geschehnisse von 1880 innerhalb von 32 Jahren, während es 1973 nur noch zehn Jahre dauerte.

Auch Auswirkung von Zensur und Propaganda hinterlassen sichtbare Spuren in den Buchveröffentlichungen. So wurde etwa der jüdische Künstler Marc Chagall nur ein einziges Mal in deutschen Publikationen zwischen 1936 und 1944 erwähnt, trotz seiner steigenden Berühmtheit im englischen Sprachraum. Ähnlich wurde auch Leo Trotzki von der russischen Literatur, der "Platz des himmlischen Friedens" von China oder die Gruppe der "Hollywood Ten"-Regisseure von den USA verbannt.

Aalto: Mit Brille das Gegenüber durchschauen

Helsinki (pte) - Ein Team an der Aalto-Universität http://aalto.fi/en/ hat eine Spezialbrille entwickelt, mit dem User nur durch Hinschauen weitere Daten beispielsweise über attraktive Personen bekommt. Möglich macht das die Kombination einer AR-Brille (Augmented Reality) mit einer Eye-Tracking-Lösung. Das System erkennt, worauf der Nutzer seinen Blick richtet und kann dann passende Informationen einblenden. Der Prototyp nutzt dazu zwar eine vorgegebene Datenbank. Auf die Dauer wollen die Forscher aber auch auf Google und soziale Medien setzen - was beispielsweise für eine Single-Suche interessant ist.

Info auf einen Blick

Der Grundgedanke bei Projekt UI-ART http://mide.tkk.fi/en/UI-ART ist einfach: Wer sich für etwas interessiert, sieht hin. Die Eye-Tracking-Lösung beobachtet daher die Augenbewegungen des Trägers und wie lange er auf verschiedene Dinge im Blickfeld schaut. Das dient als Anhaltspunkt, worüber der Nutzer genauere Informationen will. Passende Daten werden dann via Netzwerk abgerufen und auf dem AR-Display eingespielt. Dabei ist das System auch lernfähig. Denn ignoriert der User Einblendungen, ist das ein Zeichen, dass seine Blicke schlecht gedeutet wurden.

Auf diese Art könnte sich ein Wissenschaftler beispielsweise über aktuelle Arbeiten eines Kollegen informieren oder ein Single auf Partnersuche erfahren, ob eine attraktive Bekanntschaft denn flirtwillig wäre. Von letzterer Anwendung ist das System aber noch ein gutes Stück entfernt. Denn in bisherigen Tests haben die Forscher eine vorab angelegte Datenbank genutzt, mit der ihre Brille darin angelegte Personen und Objekte im den Räumlichkeiten der Universität erkennen und Informationen dazu liefern kann.

Funktionell erweiterbar

Gerade für Anwendungen wie eine Single-Suche wäre es freilich nötig, auch Unbekannte zu identifizieren und Informationen über die Person zu liefern. Die Forscher befassen sich bereits damit, wie das System entsprechend erweitert werden kann. Grundsätzlich ist es denkbar, Informationen direkt aus dem Internet zu beziehen, also beispielsweise mithilfe der Google-Suche oder im Fall von Personen auch aus sozialen Netzwerken. Zudem arbeitet das Team an einer sehr allgemeinen Objekterkennung. Ehe das System wirklich Marktreife erreicht, wir es also noch eine Weile dauern.

APNIC: Spätestens im vierten Quartal 2011 die IPv4-Adressen mehr

South Brisbane/Amsterdam (pte) - Die für den asiatisch-pazifischen Raum zuständige Regional Internet Registries (RIRs) APNIC http://www.apnic.net hat bekannt gegeben, dass ihr spätestens im vierten Quartal 2011 die IPv4-Adressen ausgehen werden. Nach Schätzung des APNIC-Chefwissenschaftlers Geoff Huston könnte es bereits im Juni kommenden Jahres so weit sein. "Auch uns werden die IPv4-Adressen wohl im zweiten Halbjahr 2011 ausgehen", meint Axel Pawlik, Geschäftsführer der europäischen RIR RIPE NCC http://ripe.net , im Gespräch mit pressetext.

Damit gehen die alten Adressen schneller zuneige, als zu Jahresbeginn erwartet. In seiner Funktion als Chairman der Number Resource Organization (NRO), Koordinierungsstelle der fünf RIRs, war davon ausgegegangen, dass die IPv4-Vorräte der bis 2012 vorhalten (pressetxt berichtete: http://pressetext.com/news/100120002/). Das unterstreicht, wie dringlich die noch etwas schleppend laufende Umsetzung der neuen Standards IPv6 ist.

Kleine Vorräte

Nach konservativen Schätzungen werden der APNIC die Adressen bis Ende 2011 ausgehen. Nach anderen Modellen ist Huston zufolge eine Erschöpfung mit September kommenden Jahres wahrscheinlich und bereits im Juni 2011 denkbar. Mit dem nahenden kritischen Datum werden solche Schätzungen immer unsicherer. "Das liegt daran, dass wir nun mit relativ kleinen Zahlen arbeiten. Das ist wie bei einem Pub, das nur noch 100 Flaschen Bier vorrätig hat", erklärt Pawlik. Denn im Normalbetrieb mag das eine Zeit reichen. "Wenn der Stadtsäufer kommt, ist der Vorrat aber schnell weg", meint der NRO-Chairman.

Damit es bei IPv4-Adressen nicht all zu leicht zu bösen Überraschungen kommt, hat beispielsweise RIPE NCC inzwischen die Vergaberegeln angepasst. Großkunden wie ISPs und Telekom-Unternehmen müssen somit öfter Adressen anfragen und bekommen dabei kleinere Brocken. "Wir sehen aber keine Anzeichen für ein Horten von Adressen", betont der RIPE-Geschäftsführer. Hinter allen eingehenden Anfragen von Unternehmen stehe ein klar erkennbarer, realer Bedarf.

Umsetzungsdruck

Experten predigen schon seit Jahren, dass Unternehmen auf den Nachfolgestandard IPv6 umsteigen müssen, um Probleme zu vermeiden. "Wir sehen immer mehr Rollouts, was ein gutes Zeichen ist", sagt der Pawlik. Allerdings ist es noch eine Minderheit unter den IPS und anderen Großunternehmen, die IPv6 wirklich umgesetzt hat. Dabei ist es im Zweifelsfall nur wichtig, nach außen via IPv6 sichtbar zu sein, während die interne Infrastruktur noch mit dem alten Standard arbeiten kann. "Manche werden das aber verschlafen. Das wird sich wohl stärker bemerkbar machen als einst Y2K", so der NRO-Chairman. Wirkliche Sorgen macht er sich aber nicht. "Das Internet wird weiter laufen."

Wie wenige IPv4-Adressen verbleiben, zeigt jedenfalls das japanische INTEC Systems Institute mit einem Online-Counter http://inetcore.com/project/ipv4ec/index_de.html . Nach dieser Schätzung sind heute nur noch rund 90 Mio. Adressen frei. Der Zähler liefert zudem eine Prognose, wann die den RIRs übergeordnete Internet Assigned Numbers Authority (IANA) http://iana.org den regionalen Vergabestellen die letzten fünf freien Adressblöcke vergeben wird. Dazu dürfte es demnach schon im Februar 2011 kommen.

c't über unerwünschte persönliche Daten im Netz

Hannover - (PresseBox) Dienste, die angeblich zuverlässig den Ruf ihrer Kunden im Web verteidigen, unktionieren nach Stichproben des Computermagazins c't [2] meist unzureichend. Internetnutzer sollten lieber ab und an selbst auf Informationspatrouille im Web gehen, rät c't in der Ausgabe 01/11.

Wer viel im Netz unterwegs ist, verliert zwangsläufig den Überblick darüber, wo er welche Daten, Kommentare oder Fotos hinterlassen hat. Und wenn andere über ihn Informationen veröffentlichen, hat er sowieso keine Kontrolle darüber. Leider vergisst das Web nichts: Längst gelöscht geglaubte Informationen können als Kopie unvermittelt woanders wieder auftauchen.

Unter dem Stichwort "Reputation Management" versprechen einige Dienste, für ihre Kunden den Überblick zu wahren. Angeblich spüren sie Informationen zuverlässiger auf als gängige Suchmaschinen. c't machte die Probe aufs Exempel - mit enttäuschendem Ergebnis: Mehr Treffer als eine Google-Standardsuche lieferte keiner der Dienste. "Und ihre Löschungsaufforderungen nerven schon so manchen Webmaster, obwohl die Anschreiben meist keinerlei juristische Berechtigung haben", erklärt c't-Redakteur Holger Bleich.

Er rät Netznutzern stattdessen, ab und an selbst auf Informationspatrouille im Internet zu gehen: "Vielen Anwendern ist nicht klar, dass ihnen das deutsche Recht eine Menge Spielraum gibt, selbst Inhalte aus dem Netz zu bekommen." Das Recht am eigenen Bild beispielsweise gehe hierzulande sehr weit, und auch falsche Tatsachenbehauptungen über sich selbst muss keiner hinnehmen. Wer gegen unerwünschte Inhalte im Web vorgehen möchte, sollte sich zuerst an den Verursacher wenden. Erst wenn dieser nicht reagiert, kann man zum Beispiel den Betreiber der Plattform bitten, den Inhalt zu löschen. "Falls die Gegenseite kein Einsehen zeigt, ist ein Gang zum versierten Rechtsanwalt aber unvermeidlich", so Bleich.

Crash 2013 - Aus für Handys?

Hamburg (ots) - Ohne radikale Änderungen im Telefonnetz wird das mobile Kommunikationssystem schon in zwei Jahren zusammenbrechen. Wie das Magazin GEO in seiner Januar-Ausgabe berichtet, sind die Netze der Datenflut von immer mehr Smartphones nicht mehr gewachsen. Ein einziger Videostream etwa belegt so viel Platz auf der "Datenautobahn" wie 100 Telefonate, und der Andrang wird sich voraussichtlich in jedem der kommenden Jahre verdoppeln. Das war um das Jahr 2000, bei der Einführung des 3G-Netzwerks, noch nicht abzusehen, und auch die Nachfolgesysteme LTE und WiMAX werden überfordert sein. Für begrenzte Zeit dürfte die Übernahme nicht gebrauchter Militärfrequenzen etwas Entspannung bringen; doch als Dauerlösung kommen wohl nur wenig beliebte Alternativen in Betracht. Entweder die Abschaffung von Flatrates - hin zur Bezahlung nach Datenmenge - oder die Errichtung von zahllosen kleinen Mobilsendern ("Femtocells") im Haus. Zwar ist die Strahlung dieser Heimsender weit schwächer als jene von Mobilfunkmasten, aber ein Unbehagen dürfte bleiben. Außerdem könnten sich eng benachbarte Sender gegenseitig stören.

Die aktuelle Ausgabe von GEO ist ab sofort im Handel erhältlich

 

Roboter "Athlete": Roboter läuft mit menschlichem Bewegungsapparat

Tokio (pte/15.12.2010/06:10) - Ingenieure an der Universität Tokio  http://www.u-tokyo.ac.jp arbeiten mit "Athlete" an einem Roboter, der so dynamisch wie menschliche Sprinter läuft. Statt auf motorgetriebene Gelenke setzt das Team um Ryuma Niiyama auf einen Nachbau des menschlichen Bewegungsapparates. Die Forscher haben eine künstliche Oberschenkelmuskulatur umgesetzt und nutzen ein federndes Unterschenkelelement.

Dabei macht sich das Team zunutze, dass das menschliche Bein federnde Bewegungen ausführt. Zudem war der südafrikanische Behindertenspotler Oscar Pistorius http://oscarpistorius.com eine wichtige Inspiration, so Niiyama gegenüber IEE Spectrum. Denn der als "Blade Runner" bekannte Sprinter nutzt zwei Unterschenkel-Laufprothesen, denen das untere Roboterbein stark ähnelt.

Menschliche Beine

Die meisten gehenden Roboter haben starre Beine und laufen, indem sie mit Motoren die Stellung ihrer Gelenke ändern. Das Ergebnis ist   zwangsweise ein robotischer Gang, denn bei Menschen und Tieren sind   Muskeln und Sehnen für die Bewegung verantwortlich. Das japanische Team hat daher ein System aus sechs pneumatischen Aktuatoren gebaut, die verschiedenen Oberschenkelmuskeln wie beispielsweise Adduktoren entsprechen.

Das gebogene, federnde Unterschenkelelement ist im Vergleich dazu   vergleichsweise einfach. Das Grundprinzip ist aber gerade im Laufsport   praxisbewährt. Immerhin hat der Südafrikaner Pistoris mit seinen   Prothesen die 100 Meter schon in unter elf Sekunden geschafft und strebt an, sich über die 400-Meter-Strecke für die Olympischen Spiele 2012 in London zu qualifizieren.

Kleine Schritte

Davon, sich mit menschlichen Sportlern zu messen, ist Athlete noch ein gutes Stück entfernt. Zwar steuert der Roboter seine künstlichen Muskel   in einem Muster, das genau dem menschlicher Läufer entspricht.   Allerdings gelingt es dem künstlichen Sprinter noch nicht, länger als   ein paar Schritte die Balance zu halten, ehe er ins Stolpern gerät.   Immerhin startet Athlete schon beachtlich los, wie ein von Niiyama   veröffentlichtes YouTube-Video zeigt. Bis er einen 100-Meter-Lauf   sturzfrei absolviert, dürfte es aber noch dauern.  YouTube-Video zu Athlete: http://www.youtube.com/watch?v=bXqUjiNw8fo

 

 

 

CSI-Trick: Kamera sieht unsichtbare Blutspuren Infrarotbeleuchtung und Filter vermeiden Fehlalarme

Columbia - (pte) Chemiker an der University of South Carolina http://www.sc.edu haben eine Kamera entwickelt, die unsichtbare Blutspuren nachweisen kann. Dazu schießt das System bei Infrarot-Beleuchtung eine Reihe von Bildern mit unterschiedlichen Filtern. Das ist nicht nur einfacher als der aus den CSI-Fernsehserien bekannte Luminol-Test. Denn während das chemische Spray beispielsweise mit Bleichmitteln oder Rost ebenso reagiert wie mit Blut, liefert die Kamera keine Fehlalarme. Zudem verfälscht das System gefundene Spuren nicht, was für die weitere Auswertung von Vorteil ist.

Einfach genau

Das Team rund um den Professor Michael Myrick hat sich speziell damit beschäftigt, Blut auf gängigen Materialien wie Baumwolle oder Polyester nachzuweisen. Dabei nutzen sie aus, dass Blut im thermischen Infrarotlicht eine charakteristische spektrale Signatur hat. Dadurch, dass ihre Kamera bei geeigneter Beleuchtung eine Serie von Fotos mit passenden Filtern schießt, kann sie ohne großen Aufwand eben diese Signatur und somit Blut nachweisen.

In Experimenten konnten die Chemiker zeigen, dass sie auf diese Art zumindest 100-fach verdünntes Blut nachweisen können - und das innerhalb von weniger als zwei Minuten. Die hohe Genauigkeit ist wichtig, um auch dann noch Spritzer nachweisen zu können, wenn beispielsweise ein Täter den Tatort relativ gründlich gereinigt hat. Die Kamera bietet sich somit als einfacher Erstnachweis an, damit Ermittler wissen, wo sie weiterführende Tests durchführen sollten.

Gefahr- und fehlerlos

Gerade gegenüber Luminol bietet das neue System als Blut-Erstnachweis eine Reihe von Vorteilen, so die Wissenschaftler. Die Chemikalie gilt als gesundheitsschädlich, sodass Ermittler vom Verzicht auf die Substanz direkt profitieren würden. Zudem besteht das Risiko, dass Luminol Spuren für einen DNA-Nachweis zu sehr verdünnt oder eigentlich aufschlussreiche Spritzmuster verschmiert.

Zudem hat Luminol damit zu kämpfen, dass die zum Nachweis von Blutspuren genutzte Lumineszenzreaktion auch durch andere Substanzen wie beispielsweise Eisenrost, Bleichmittel, Kaffee oder Meerrettich hervorgerufen werden kann. Die spektrale Signatur von Blut ist dagegen so einzigartig, dass die Kamera mit ihren Filtern ausschließlich die Körperflüssigkeit nachweist. Doch das Potenzial des Ansatzes reicht weiter. Mit anderen, jeweils passend gewählten Filtern sollten beispielsweise auch Drogen- oder Sprengstoffspuren nachweisbar sein, so der Chemiker Stephen Morgan gegenüber dem New Scientist. (Ende)

IBM plant Supercomputer im Würfelzucker-Format

Zürich - (pte) In Zukunft sollen Computer kleiner, energiesparender und damit umweltfreundlicher werden. Dann ginge es bei den Topgeräten nicht mehr um die schnellsten, sondern die effizientesten Rechner. Mit dieser Ankündigung ließ IBM-Entwickler Bruno Michel bei einer Rede in den IBM Labors in Zürich aufhorchen. IBM http://www.ibm.com arbeitet bereits an einem ökologisch verträglichen Supercomputer mit dem Namen Aquasar, berichtet die BBC.

Ausgeklügelte Wasserkühlung

Durch ausgeklügelte Wasserkühlung soll das Gerät nur etwa halb soviel Energie verbrauchen wie ein vergleichbarer Computer. Noch ist Aquasar größer als ein Kühlschrank - in einigen Jahren soll er jedoch auf Würfelzucker-Format schrumpfen, verspricht Michel.

"Wir haben bereits ein Aquasar-System gebaut, das noch ein Gehäuse voll mit Prozessoren ist. In zehn bis 15 Jahren planen wir so ein System in einem Zuckerwürfel unterzubringen - wir werden einen Supercomputer in der Größe eines Zuckerwürfels haben", so Michel.

Wirtschaftliche Faktoren

Die Entwicklung hin zu energieeffizienteren Rechnern wird währenddessen vor allem durch wirtschaftliche Faktoren vorangetrieben. In Zukunft würden Computer von Energiekosten dominiert werden - ein Rechenzentrum zu betreiben, würde mehr kosten als eines zu bauen, so die Prognose.

Heute entfallen etwa 2 Prozent des gesamten globalen Energieverbrauchs auf die Herstellung und den Betrieb von Computern. Ein großer Teil des Energieaufwands wird durch die notwendigen Kühlsysteme verursacht. Im Fall von Aquasar sollen nun übereinanderliegende Prozessoren durch Wasserzirkulation in den Zwischenräumen gekühlt werden. Dies sei effektiv und zudem stromsparender als andere Kühlsysteme.

Supercomputer: China wird Weltmacht Top-Hybridsysteme zeigen Schwierigkeit des Benchmark-Vergleichs

Mannheim/Berkeley/Wien (pte) - China hat sich wie erwartet in der aktuellen Liste der Top500 Supercomputer http://www.top500.org mit "Tianhe-1A" die Spitzenposition gesichert. Auch Rang drei geht mit "Nebulae" an das Reich der Mitte. Beide Systeme setzen auf eine Hybridarchitektur mit Nvidia-Grafikprozessoren (GPUs) als Beschleuniger. Damit zeigen sie nicht nur einen Architekturtrend, sondern auch die Grenzen des Top500-Vergleichs auf. Denn der Linpack-Benchmark kann nur einen relativ geringen Teil ihrer theoretischen Rechenleistung nutzen.

Insgesamt ist Asien in den aktuellen Top500 auf dem Vormarsch. Auch der vierstärkste Superrechner der Welt, der japanische "Tsubame 2.0", stammt aus Fernost. China wiederum unterstreicht auch zahlenmäßig den Anspruch einer Supercompter-Weltmacht. Das Land ist nun mit über 40 Systemen im Ranking vertreten. Damit hat es Japan, Frankreich, Deutschland und Großbritannien überflügelt und liegt hinter den USA auf Rang zwei.

Leistungsgrenzen

Tianhe-1A ist ein Supercomputer, dessen Architektur theoretisch eine Spitzenleistung von 4,701 Petaflops (Billiarden Rechenoperationen pro Sekunde) erlaubt. Diesen Wert erreicht der für die Top500-Liste genutzte Linpack-Benchmark aber nicht annähernd. "Linpack wird für die Nvidia-GPUs natürlich speziell umgeschrieben und optimiert, damit er die Rechenleistung der Tesla-Karten zumindest halbwegs ausnutzen kann", erklärt Siegfried Benkner, Leiter des Institute of Scientific Computing an der Universität Wien http://www.par.univie.ac.at , gegenüber pressetext. Dennoch weist der Test nur 2,507 Petaflops Rechenleistung aus.

Das reicht zwar immer noch, um den bisherigen Spitzenreiter "Jaguar", der auf Opteron-CPUs setzt, vom Thron zu stoßen. Doch der Unterschied zwischen theoretischer (2,331 Petaflops) und gemessener Rechenleistung (1,759 Petaflops) ist beim US-System nicht annähernd so groß. Das liegt letztendlich daran, dass eine optimale Nutzung der Hybridsysteme eigens optimierte Programme erfordert. "Bei anderen, nicht so gut für die spezielle GPU-Architektur geeigneten Codes ist es sehr schwierig, eine hohe Effizienz zu bekommen", erklärt Benkner.

Energiefrage

Dem Experten zufolge ist gerade bei großen komplexen Simulationscodes der erforderliche Optimierungsaufwand für hybride CPU-GPU-Architekturen enorm. "Dennoch scheint dieses hybride Architekturkonzept in Zukunft immer wichtiger zu werden - hauptsächlich wegen des weitaus besseren Flops-pro-Watt-Verhältnis", sagt Benkner. Der Unterschied in Sachen Energieeffizienz ist bei den Spitzensystemen der Top500 gewaltig. Der zweitplatzierte Jaguar mit seiner CPU-Architektur zieht etwa drei Viertel mehr Leistung als Tianhe-1A und rund 2,7 mal so viel wie der drittplatzierte Nebulae.

Deutschland ist im aktuellen Top500-Ranking bei der Zahl der Systeme mit 26 Supercomputern an Großbritannien vorbeigezogen und damit nun Europa-Spitzeneiter. Allerdings ist Deutschlands stärkster Rechner "JUGENE" am Forschungszentrum Jülich auf den neunten Platz abgerutscht. Europas leistungsfähigsten Supercomputer hat nun mit "Tera-100" die französische Atomenergiebehörde CEA http://www.cea.fr

Ixquick informiert nun auch auf Facebook

Zeist - (pts) - Seit 2006 schützt Ixquick die Privatsphäre in Europa und war damit die erste Suchmaschine, die ihr Geschäftsmodell vollständig auf mehr Privatsphäre im Internet ausrichtete. 2008 erhielt Ixquick als bisher einziger Anbieter das erste Europäische EuroPriSe Datenschutz-Gütesiegel. Im September dieses Jahres wurde ein deutschsprachiges Profil bei Facebook http://www.facebook.com/ixquick.de installiert, um dort über Möglichkeiten zu mehr Selbstschutz zu informieren. Ixquick setzt auf die Dynamik der Community, die für eine rasche Verbreitung der kostenlosen Dienstleistung sorgen soll.

Beim Surfen mit einer der gebräuchlichen Suchmaschinen werden sämtliche Suchanfragen gespeichert. Suchbegriffe, Zeitpunkt des Besuchs, Links, die angewählt wurden, die IP-Adresse der AnwenderInnen und sogenannte User ID Cookies. All diese Daten werden im System der Suchmaschinen gespeichert. Benutzerprofile, die aus dieser Fülle von Informationen erstellt werden können, sind für Marketingspezialisten von heute viel Geld wert und können bei Missbrauch großen Schaden anrichten.

Ixquicks Geschäftsidee hingegen beruht auf einem breiten Sicherheitskonzept. Wer mit Ixquick sucht, verwendet mehrere relevante Suchmaschinen gleichzeitig. Die Ergebnisse werden verfeinert und die Suchenden werden komplett abgeschirmt. Die durchsuchten Suchmaschinen erhalten keinerlei Daten über Suchverhalten oder Herkunft der Userinnen. Ixquick löscht sämtliche Daten umgehend. Und auch nach dem Verlassen von Ixquick wird über einen jeweiligen Proxylink bei den Suchergebnissen weiter hundertprozentiger Datenschutz geboten.

Auf Facebook soll nun über Gefahren bei der Suche im Internet informiert werden. "Wir möchten aufzeigen, welche Konsequenzen der unbesorgte Umgang mit Internettechnologie hat. Unsere Aufgabe ist der Schutz vor Gefahren wie der Datensammelwut der Werbeindustrie", so Pressesprecher Alexander van Eesteren.

Gute Ideen erhalten im Web viel Rückenwind. Und genau auf diesen Umstand hoffen auch die Betreiber von Ixquick. Jeder Mensch hat ein Recht auf Privatsphäre. Und bei Ixquick ist man überzeugt davon, dass künftig der geschäftliche Erfolg eines Unternehmens vom umsichtigen Umgang mit der Gesellschaft und einem nachhaltig ethisch korrekten Businesskonzept abhängen wird. www.facebook.com/ixquick.de /www.privat-im-internet.de robert@ixquick.com Tel. +31-30 6971778

Augenbewegung als Schlüssel Softwarelösung verspricht höchste Sicherheit mit einfachen Webcams

Haifa/Cambrige (pte) - Das israelische Start-up ID-U Biometrics http://idu-biometrics.com hat ein Eye-Tracking-System entwickelt, das als hochsichere biometrische Zugangssicherung dient. Dazu macht sich "4D-Biometrics" zunutze, dass jeder Mensch ein eigenes Augenbewegungsmuster hat. Das ermöglicht eine dynamische Signatur, die neben Passwörtern und Fingerabdruckscannern auch bisherige Augenscans ausstechen soll.

Zudem ist die Software-basierte Lösung ohne großen Hardwareaufwand leicht umzusetzen. So ist bereits eine iPhone-App in Arbeit, berichtet Technology Review. Da 4D-Biometrics mit beliebigen Bildschirmen und auch mit Webcams geringer Auflösung funktionert, können generell bestehende Systeme leicht nachgerüstet werden, so das Unternehmen.

Dynamische Erkennung

Im Gegensatz zu biometrischen Systemen wie Netzhaut- oder Fingerabdruckscannern identifiziert die ID-U-Lösung Personen anhand eines dynamisches Musters. Dabei macht sich das System zunutze, dass die Augenbewegung jedes Menschen ganz persönlichen Variationen unterworfen ist. Das Interface ist dabei wirklich einfach. "Der User beobachtet ein bewegtes Ziel auf einem Bildschirm, während eine Kamera die Reaktion in der Augenbewegung überwacht", erklärt ID-U-CEO Daphna Palti-Wasserman.

Bei der ersten Messung ermittelt die Software augrund der individuellen Vaiationen eine Art Augenbewegungs-Signatur, dank der es den Nutzer danach identifizieren kann. Laut ID-U kann das System nicht wie Fingerabdruck- oder Netzhautscanner durch gute Nachbildung getäuscht werden. Die potenziellen Anwendungsgebiete sind laut Unternehmen vielfältig. Da Computerbildschirm und Webcam als Hardware reichen, umfassen sie beispielsweise die Zugangssicherung von Unternehmens-PCs ebenso wie sichere Online-Transaktionen.

Ohne Hände, mit Brille

4D-Biometrics verspricht dank Bildschirm-Kamera-Interface auch eine sehr einfache Anwendung. Klarerweise muss der Nutzer nicht extra die Hände frei haben und kann auch Handschuhe tragen. Das ist praktisch bei mobilen Anwendungen im Winter oder in Unternehmen, wo Schutzkleidung erforderlich ist. Zudem funktioniert die Lösung laut ID-U selbst dann, wenn der User eine Schutzbrille trägt. Selbst schlechte Beleuchtung, Schmutz oder Lärm machen dem System laut Hersteller nichts aus.

3D-Werbung wirkt stark verkaufsfördernd Effekt lässt jedoch mit zunehmender Gewöhnung nach

Hürth (pte) - Die 3D-Technologie bietet in der Vermarktung von Produkten große Chancen, um den Absatz zu steigern. Zu diesem Schluss kommt das Marktforschungsinstitut SKOPOS http://www.skopos.de in einer aktuellen Studie. Das Institut hat einen Werbespot für ein fiktives Fruchteis namens 'Passione' einer Testgruppe in 3D und einer weiteren Gruppe im herkömmlichen 2D-Format gezeigt. Ergebnis ist, dass nicht nur der Werbespot selbst, sondern auch das beworbene Produkt besser abgeschnitten hat, wenn der Spot in 3D gesehen wurde.

Die positiven Eigenschaften der 3D-Technologie haben sich auf den Spot übertragen, der von den Befragten als modern, originell und einzigartig bewertet wurde. Das Produkt wiederum konnten sich die 3D-Zuschauer besser vorstellen als die 2D-Gruppe. Als das Eis schließlich gekostet wurde, bemerkte ein größerer Anteil der 3D-Befragten, dass das Eis genau ihren Vorstellungen entsprochen hätte. Auch der Geschmack scheint vom 3D-Erlebnis beeinflusst zu werden. 82 Prozent der 3D-Zuschauer fanden das 'Passione' lecker, bei der 2D-Gruppe waren es nur 64 Prozent.

3D-Spots derzeit besonders effektiv

"3D-Werbung zieht derzeit vor allem auch, weil die 3D-Effekte noch neu sind", erklärt Jan Berlin, Research Director bei SKOPOS, gegenüber pressetext. "Wer jetzt 3D-Werbung schaltet, erreicht eine Vielzahl an noch 3D-unerfahrenen Zuschauern. Die sind allein von der Technologie so begeistert, dass es für den Werbetreibenden relativ einfach ist, positive Ausstrahlungen auf Produkt und Marke zu erzielen."

Der Experte geht jedoch nur von einem vorübergehenden positivem Effekt aus. "Die Wahrnehmungschancen der 3D-Werbung werden mit der Zeit nachlassen. Mit der zunehmenden Anzahl an 3D-Filmen in Kino und Pay-TV wird es auch mehr Werbespots in 3D geben. Die Zuschauer werden aufgrund der Gewöhnung verstärkt dazu übergehen, bei Werbeblöcken die 3D-Brille abzunehmen und die Augen für den eigentlichen Film zu schonen."

Produkte müssen zum Anfassen sein

Vereinzelt wird man auch später immer wieder 3D-Neulinge erreichen, da davon auszugehen ist, dass die Verbreitung - vor allem im TV - eher schleppend verlaufen wird. "Aber ein wichtiger Vorteil ist momentan, dass der Markt noch jung ist und Kinobetreiber überhaupt nur wenige Spots zur Verfügung haben, die sie ausstrahlen können", so Berlin.

Allgemein ist es auf jeden Fall wichtig, dass in der Werbung mit dem Effekt gespielt wird. Es geht nicht um die 3D-Technologie an sich, sondern die präsentierten Produkte müssten zum Anfassen sein. "Es ist kein Zufall, dass es schon 3D-Werbung für Bier und Eis gibt, aber nicht für Banken und Versicherungen", resümiert Berlin.

 

 

Da Vincis Erbe: Flug mit Muskelkraft geglückt   Kanadischer Forscher schafft Ornithopter-Rekordflug

Toronto/Berlin (pte/23.09.2010/12:05) - Schon vor über 500 Jahren hatte   Leonardo da Vinci die Vision eines Fluggeräts, das dank Muskelkraft mit   dem Schwingenschlag eines Vogels fliegt. Dem Kanadier Todd Reichert,   Doktorand am Institute for Aerospace Studies der University of Toronto   http://www.utias.utoronto.ca , ist das endlich gelungen. Er hat mit dem   Ornithopter "Snowbird" im August einen kontinuierlichen Flug geschafft,   der nun bei der Fédération Aéronautique Internationale   http://www.fai.org offiziell als Rekord eingereicht wurde.

 "Ich finde diesen Flug sehr bedeutsam. Er zeigt das Potenzial des   Schwingenflugs", meint Ingo Rechenberg, Inhaber des Lehrstuhls Bionik   und Evolutionstechnik an der TU Berlin http://www.bionik.tu-berlin.de ,   im Gespräch mit pressetext. "Es handelt sich um eine sehr effiziente,   aber hochkomplexe Fortbewegungsart."

 Traum wird Realität

 "Die Snowbird ist der Erfüllung eines uralten Luftfahrt-Traums", sagt   Reichert. Immerhin hat da Vinci 1485 seinen Ornithopter skizziert. Die   Vision, aus eigener Kraft wie ein Vogel zu fliegen, ist freilich noch   älter. Ein Ornithopter setzt diese Idee im engsten Sinne um, da sich   Fluggerät tatsächlich durch einen Flügelschlag bewegt. Damit das   gelingt, ist die Snowbird extrem leicht konstruiert. Obwohl der   Ornithopter mit 32 Metern eine ähnliche Spannweite wie eine Boeing 737   hat, wiegt die Gesamtkonstruktion nur knapp 43 Kilo. Reichert selbst hat   für den Flugversuch zudem gut acht Kilo abgenommen.

 Wie die University of Toronto jetzt bekannt gegeben hat, fand der   Rekordflug bereits am 2. August dieses Jahres im Beisein eines   FIA-Vertreters statt. Dabei hat die Snowbird unter Muskelkraft 145 Meter   bei einer Durchschnittsgeschwindigkeit von 25,6 Kilometern pro Stunde   zurückgelegt. Die Flugdauer wirkt mit 19,3 Sekunden sehr kurz, ist aber   beispielsweise um rund die Hälfte länger als der erste motorisierten   Flug Orville Wrights am 17. Dezember 1903. Jedenfalls dürfte die Marke   laut Universität im Oktober von der FIA offiziell als Weltrekord für   einen bemannten Ornithopter-Flug bestätigt werden.

 Besser im Kleinen

 Der Snowbird-Flug soll vor allem eine Inspiration darstellen, den   menschlichen Körper und Geist sinnvoll zu nutzen, so Reichert.   Muskelkraftgetriebene Ornithopter als Transportmittel werden sich aber   kaum durchsetzen. Generell ist der Schwingenflug für die bemannte   Luftfahrt mit großen Flugzeugen wohl nicht geeignet, meint auch   Rechenberg. "Für kleinere Flugobjekte könnte er aber eine bessere   Fortbewegungsart darstellen als der Propellerflug", ist der   Wissenschaftler überzeugt. Bei Modellflugzeugen und Drohnen kommt das   Prinzip bisweilen schon zum Einsatz. So nutzt etwa die libellengroße   DelFly (pressetext berichtete: http://pressetext.com/news/080723004/)   das Flugprinzip eines Ornithopter.  Die Snowbird auf Vimeo: http://www.vimeo.com/15168011

Immer mehr Unternehmen in der Datenfalle   Datenverluste durch Ausfall von NAS-Systemen häufen sich

Wien (pts) - Vor allem bei kleineren und mittelgroßen   Unternehmen sind sie zunehmend beliebter: Sogenannte NAS-Systeme   (Network Attached Storage), die als zentrale Daten-Speichereinheit für   ein Computernetzwerk fungieren. Sie sind unabhängig vom Betriebssystem   des Arbeitsplatzes, einfach zu installieren und bieten durch einen   internen Festplatten-Verbund (RAID) erhöhten Schutz gegen Datenverlust.   Doch für viele Unternehmen wird genau diese vermeintliche   Ausfallsicherheit zur Datenfalle: "Wir registrieren seit Jahresbeginn   eine steigende Anzahl an Fällen von Datenverlust bei NAS-Systemen",   warnt nun DI. Nicolas Ehrschwendner, Geschäftsführer des europäischen   Datenrettungsunternehmens Attingo mit der Zentrale in Wien.

Das Hauptproblem: Durch die vermeintliche Ausfallsicherheit werden   Backups vernachlässigt. Diese sind jedoch unerlässlich, da die Systeme   eben nicht ausfallsicher sind. Im Gegenteil: Oft wird durch die   Konfiguration der Systeme zur Maximierung der Kapazität auf   Datensicherheit verzichtet. "Bei einigen Systemen führt der Ausfall   einer einzigen Festplatte im Verbund dazu, dass der gesamte Datenbestand   nicht mehr ansprechbar ist", erklärt Ehrschwendner. Da jede Festplatte   aber früher oder später defekt wird, ist der Totalausfall nur eine Frage   der Zeit. Dies kann zu einem kompletten Stillstand des Unternehmens mit   horrenden Kosten führen: Die Datenfalle schnappt zu.

Damit der Ausfall nicht zur Katastrophe wird, ist eine professionelle   Datenrettung in diesem Fall unerlässlich. Die Spezialisten bei Attingo   können in mehr als 90 Prozent der Fälle verlorene Daten   wiederherstellen. "Gerade bei NAS-Systemen hat der Anwendner keine   Chance, selbst wieder an die Daten zu kommen", so Ehrschwendner. Oft   wird eine Datenrettung bei NAS zusätzlich erschwert, da die Hersteller   nicht quellenoffene Software (sogenannte proprietäre Software) für ihr   NAS verwenden. Diese muss von den Datenrettern erst mit aufwändigen   Reverse-Engineering-Verfahren analysiert werden, um Daten retten zu   können.

Ein häufiges Problem sind Fälle, bei denen ein NAS nach einem Update der   Firmware ausfällt. Dadurch werden etwa interne Speicherstrukturen   verändert, die das NAS nach dem Update leer erscheinen lassen. Ein   Backup vor dem Update ist daher unerlässlich.

Attingo Datenrettung ist ein führender, europäischer Anbieter von   Datenrettungen. Die Datenrettung befasst sich mit der Rekonstruktion von   Daten, die durch Löschung, Formatierung, technischen Defekt,   Manipulation, Sabotage oder mechanische Einflüsse wie Wasser oder Feuer   beeinträchtigt wurden. Attingo rettet diese Daten. Das Unternehmen   betreibt dazu modernste Reinraumlaboratorien in Wien, Hamburg und   Amsterdam und verfügt über Experten mit jahrelanger Erfahrung. Attingo   ist in Notfällen für seine Klienten 24 Stunden an 7 Tagen die Woche zu   erreichen.

Online stellt Werbewelt auf den Kopf

Frankfurt am Main (ots) - German Entertainment and Media Outlook  von PwC: Branchenumsatz steigt bis 2014 auf über 68 Milliarden Euro / Fernsehen und Zeitung werden als Top-Medien abgelöst / Kinos mit  Milliarden-Umsatz

In der deutschen Medienbranche bricht ein neues Zeitalter an. In  diesem Jahr wird das Fernsehen erstmals die Zeitung als größten  deutschen Werbeträger ablösen. Aber schon von 2011 an verdrängt die  Onlinewerbung das TV wieder von der Spitzenposition. Auch  mittelfristig wird die Werbung im Internet überdurchschnittlich stark wachsen und ihren Marktanteil von rund 22 Prozent im vergangenen Jahr auf voraussichtlich fast 32 Prozent im Jahr 2014 steigern, wie die  Wirtschaftsprüfungs- und Beratungsgesellschaft PwC in ihrem "German  Entertainment and Media Outlook 2010 - 2014" prognostiziert.

"Der Siegeszug der Onlinewerbung war absehbar. Durch die  Wirtschaftskrise hat sich der strukturelle Wandel der Medienbranche  aber erheblich beschleunigt. Die Konsumenten wandern verstärkt ins  Internet und verbringen immer mehr Zeit online. Diesem Trend folgen  die Werbebudgets. Zusätzlichen Schub gewinnt die Entwicklung durch  das mobile Internet, das dank attraktiver Endgeräte, schneller  Mobilfunknetze und Datenflatrates zunehmend an Bedeutung gewinnt",  kommentiert Werner Ballhaus, Leiter des Bereichs Technologie, Medien  und Telekommunikation bei PwC, die Entwicklung.

Für die deutsche Medienbranche insgesamt erwartet PwC ein weiteres Wachstum der Werbeerlöse und Verbraucherausgaben. Von 2010 bis 2014  wird der Gesamtumsatz um jahresdurchschnittlich 3,6 Prozent auf 68,1  Milliarden Euro zulegen. Die Werbeerlöse werden bis 2014 mit 4,8  Prozent schneller wachsen als die Konsumentenausgaben, die um 3,2  Prozent pro Jahr steigen.

Das Jahr 2010 schließt die Branche mit einem Umsatzplus von  geschätzt 2,6 Prozent auf 59,1 Milliarden Euro ab. Die in dieser  Summe enthaltenen Werbeeinnahmen werden um 3,5 Prozent und damit  stärker als der Gesamtmarkt zulegen, absolut betrachtet bleibt der  Werbeumsatz mit knapp 15 Milliarden Euro um mehr als eine Milliarde  Euro unter dem Wert von 2008. Erst im Jahr 2012 wird mit Erlösen von  voraussichtlich 16,2 Milliarden Euro wieder Vorkrisen-Niveau erreicht werden.

Konsumenten geben mehr Geld für mobiles Internet aus

Das Internet dominiert nicht nur bei den Werbeumsätzen, sondern  bindet auch einen immer größeren Teil der Verbraucherausgaben. Dies  ist in erster Linie auf die zunehmende mobile Nutzung zurückzuführen. So werden die Ausgaben für Festnetzanschlüsse von 2010 bis 2014 nur  um jährlich 2,6 Prozent auf knapp 7,1 Milliarden Euro zulegen,  während die mobilen Zugangsentgelte um durchschnittlich 13,7 Prozent  auf gut 4,2 Milliarden Euro im Jahr 2014 steigen.

Insgesamt werden für den Internetzugang 2014 gut 11,3 Milliarden  Euro ausgegeben. Damit liegt dieses Segment bei den  Konsumentenausgaben klar in Führung, gefolgt von Büchern (10,3  Milliarden Euro) und den Ausgaben für das Fernsehen (9,7 Milliarden  Euro).

TV und Internet wachsen auch in den nächsten Jahren weiter  zusammen. So werden im Jahr 2014 immerhin 2,9 Millionen Haushalte  TV-Inhalte über das Internet-Protokoll (IPTV) empfangen. Zwar bleibt  auch dann der IPTV-Marktanteil an allen Fernseh-Haushalten mit 7,5  Prozent noch vergleichsweise gering (Kabel: 47,4 Prozent, Satellit:  40,1 Prozent).

"Angesichts der weit überdurchschnittlichen Wachstumsrate von  jährlich 17,9 Prozent zwischen 2010 und 2014 ist es nur noch eine  Frage der Zeit, bis sich IPTV als mindestens gleichberechtigter  Übertragungsweg durchgesetzt hat", sagt Ballhaus voraus.

3D bringt Kinos Umsatzschub

Neue Technologien können allerdings auch etablierten Medien zu  Wachstum verhelfen. So ließen 3D-Filme wie "Avatar" und "Alice im  Wunderland" die Erlöse auch an deutschen Kinokassen in die Höhe  schnellen. Das Umsatzplus ist aber zu einem guten Teil auf höhere  Ticketpreise für die aufwändigen Filmproduktionen zurückzuführen. PwC erwartet für 2010 einen durchschnittlichen Preisanstieg für  Kino-Tickets von über zehn Prozent. Damit zeichnet sich trotz eines  Besucherrückgangs (minus 6,4 Prozent) an den deutschen Kinokassen in  diesem Jahr ein Rekordumsatz von erstmals mehr als einer Milliarde  Euro ab.

Dieser Preiseffekt wird sich auch in den kommenden Jahren  bemerkbar machen. Während die PwC-Experten bis 2014 mit einem Anstieg der verkauften Kinokarten um jährlich 2,8 Prozent auf 153 Millionen  Tickets rechnen, werden die Verkaufserlöse um durchschnittlich 6,6  Prozent auf gut 1,3 Milliarden Euro zulegen.

Musikbranche schöpft Hoffnung

Die fortschreitende Digitalisierung gibt auch der lange Zeit  gebeutelten Musikbranche Hoffnung. So werden die Erlöse aus dem  Digitalgeschäft den Rückgang physischer Verkäufe von 2013 an erstmals überkompensieren und nach vielen Jahren wieder zu Wachstum im  Musikmarkt führen. Frühere Umsatzhöhen werden aber nicht mehr  erreicht. Denn digitale Musik ist billiger als Musik etwa auf CD.

Über PwC: PwC bietet branchenspezifische Dienstleistungen in den  Bereichen Wirtschaftsprüfung, Steuerberatung und  Unternehmensberatung. Dort schaffen wir für unsere Mandanten den  Mehrwert, den sie erwarten. Mehr als 161.000 Mitarbeiter in 154  Ländern entwickeln in unserem internationalen Netzwerk mit ihren  Ideen, ihrer Erfahrung und ihrer Expertise neue Perspektiven und  praxisnahe Lösungen. In Deutschland erzielt PwC an 29 Standorten mit  8.700 Mitarbeitern eine Gesamtleistung von rund 1,33 Milliarden Euro.

PwC kommuniziert in Zukunft einfacher, klarer und kürzer und hat  daher den Namen von PricewaterhouseCoopers in PwC geändert. Im Text  mit großem 'P' und großem 'C' - nur im Logo sind alle Buchstaben  kleingeschrieben.

Digital überladen: Soziale Netzwerke für viele nur Zeitverschwendung

Canberra/New York (pte) - Die zentrale Rolle, die Social Networks wie Facebook im Alltag eingenommen haben, wird für immer   mehr User zur Belastung. Sie fühlen sich "digital überladen" und gönnen   sich häufig Pausen vom Online-Stress, wie die Marktforscher der   Lifelounge Group und Sweeney Research in Australien aufzeigen. So   bestimmt Social Networking insbesondere das Leben junger Nutzer immer   stärker. Den Experten nach definiert die Jugend ihre Identität   mittlerweile primär anhand der Netzwerke und nicht mehr über die Musik.   Wer überfordert ist, zieht sich zumindest vorübergehend ins   Offline-Leben zurück.

 Wöchentlich fünf Stunden auf Facebook

 "Auf Pause zu drücken bedeutet nicht, ganz abzuschalten", wird   Lifelounge-CEO Dion Appel von australischen Medien zitiert. Die 16- bis   30-jährigen User wollen jedoch den Druck vermindern. Sie versuchen, bei   dem wachsenden Bedarf, ständig online sein zu müssen, eine bessere   Balance zu finden. Dabei verbringen die Medienkonsumenten beispielsweise   bewusst mehr Zeit mit dem Lesen von Büchern. Mit zumindest fünf Stunden   pro Woche beschäftigen sich aber immer noch 47 Prozent der Nutzer am   meisten mit Facebook.

 Dabei sind die Plattformen, obwohl sie weiterhin wachsende Userzahlen   und eine steigende Nutzungsdauer verzeichnen, für viele reinste   Zeitverschwendung. Wie das US-Magazin Vanity Fair aufzeigt, haben die   Portale darin sogar das Fernsehen überholt. 36 Prozent der   Medienkonsumenten empfinden Social Networking als "ihre größte   Zeitvergeudung". Beim Fernsehen, Shopping oder Lesen haben hingegen nur   23, neun bzw. zwei Prozent dieses Gefühl. Ebenfalls zwei Prozent meinen,   sie verschwenden ihre Zeit in ihrem Job.

 

Traum vom fliegenden Auto wird Realität

Washington (pte) - Der US-Fahrzeugbauer Terrafugia http://www.terrafugia.com hat angekündigt, mit seiner Entwicklung eines fliegenden Autos in Serienproduktion zu gehen. Wie US-Medien berichten, wird das Unternehmen demnächst ein Flugzeug produzieren, das sich bei Bedarf auch in ein straßentaugliches Auto verwandeln lässt. Der Verkauf des "Transition" genannten Vehikels, für das interessierte Kunden voraussichtlich an die 200.000 Dollar auf den Tisch blättern müssen, soll schon im kommenden Jahr starten.

Bislang war Terrafugia mit seinem ambitionierten Vorhaben, das erste fliegende Auto der Welt auf den Markt zu bringen, vor allem an den strengen Bestimmungen der US-amerikanischen Bundesluftfahrtbehörde Federal Aviation Administration (FAA) http://www.faa.gov gescheitert. Ausschlaggebend hierfür war der Umstand, dass der neuartige Zweisitzer als Leichtflugzeug entworfen worden ist, letzten Endes aber um gut 50 Kilogramm über der entsprechenden Zulassungsgrenze für das hierfür erlaubte Gesamtgewicht liegt. Nun hat die Behörde doch noch grünes Licht für die Produktion gegeben.

Strenge Sicherheitsbestimmungen

Damit Terrafugias Transition nicht nur in der Luft sondern auch auf der Straße zum Einsatz kommen darf, muss es - wie jedes herkömmliche Auto auch - gewissen Sicherheitsstandards entsprechen. Um eine Straßenzulassung als verkehrssicheres Fahrzeug zu erhalten, muss der Hersteller beispielsweise sicherstellen, dass das Gefährt über Sicherheitsfeatures wie Knautschzone oder eingebaute Airbags verfügt.

Wer sich ernsthaft für die Anschaffung des "fliegenden Autos" interessiert, sollte sich aber bewusst sein, dass seine Lenker zusätzlich zu einem normalen Führerschein zumindest über eine Fluglizenz für Leichtflieger verfügen müssen. Diese wird in den USA bereits nach der erfolgreichen Absolvierung von 20 Flugstunden ausgestellt.

In 30 Sekunden vom Auto zum Flugzeug

Als Straßenfahrzeug ist "Transition" laut Hersteller mit einer Maximalgeschwindigkeit von 110 Kilometer pro Stunde beinahe so schnell wie ein herkömmliches Auto. Der Treibstoffverbrauch wird mit acht Litern auf 100 Kilometer angegeben. Für einen Einsatz in der Luft werden innerhalb von 30 Sekunden die zuvor eingeklappten Flügel ausgefahren und der Frontpropeller angeworfen. Dort schafft die Maschine eine Höchstgeschwindigkeit von 180 Stundenkilometern bei einer Reichweite von 740 Kilometern.

Forscher wollen Perlmutt nachahmen - Mit Hilfe biologischer Strukturen

Augsburg (pte) - Die spezielle Kristallform der Aragonitkristalle im Perlmutt kann durch einen Transformationsprozess nachgebildet werden. Dieser Nachweis ist dem Forscherteam um Dirk Volkmer vom Lehrstuhl für Festkörperchemie an der Universität Augsburg http://www.physik.uni-augsburg.de gelungen. Dabei spielt "flüssiges" an der Kristallisation gehindertes Calciumcarbonat eine entscheidende Rolle. Die Erkenntnis ist ein weiterer Schritt zur Entwicklung von innovativen Materialien, die die gleichen positiven Eigenschaften aufweisen wie Perlmutt.

"Biologische Organismen haben im Laufe der Evolution eine Fülle von Materialien entwickelt, die als Vorlage für innovative Konstruktionswerkstoffe, aber auch für Anwendungen im Bereich der Medizin interessant sind", erklärt der Forscher im pressetext-Interview. Die scheinbar so einfach konzipierten Muscheln und Schnecken haben viel komplexere Systeme, als angenommen.

Bisher waren Forscher davon ausgegangen, dass sich die geordnete Perlmuttstruktur durch gerichteten Aufwuchs von Calciumcarbonat-Kristallen auf eine präorganisierte organische Matrix ergibt, die dafür eine Art Blaupause liefert. Mit den nun gewonnenen Erkenntnissen ist diese Meinung nicht mehr haltbar.

Interessanter Kompositwerkstoff

Volkmer befasst sich mit der Übertragung biologischer Struktur- und Synthesestrategien auf technische Systeme. "In den Forschungsvorhaben geht es zum Beispiel darum, die natürlichen Prozesse der Perlmuttbildung nachzuahmen", erklärt der Forscher. "Perlmutt ist ein Kompositmaterial aus Calciumcarbonat und einem sehr geringen, aber entscheidenden Anteil spezialisierter organischer Moleküle." Diese Moleküle gliedern den Raum, in dem die Mineralisation der Schale erfolgt. Sie prägen die Form der mikroskopischen Kristalle und verkleben diese untereinander zu einem äußerst zähen und korrosionsbeständigen Kompositwerkstoff, der mit dem brüchigen Mineralbaustoff Kalk nur wenig gemein hat.

"Uns geht es auch um Phänomene, die für Muscheln oder Schnecken so bezeichnend sind. Dazu gehört etwa die Frage, warum die Perlmuttschicht auch in abgestorbenen Tieren immer noch nicht bewachsen ist, obwohl die Tiere seit Jahren tot sind", so der Forscher. Das lege die Vermutung nahe, dass sich Perlmutt als Anti-Fouling-Beschichtung eignet. Dabei ist auch der strukturelle Unterschied zwischen dem äußeren Muschelkalk, die sehr wohl bewachsen ist, und der Perlmuttschicht interessant.

Vielfache Anwendung

"Der eigentliche Kristallisationsprozess ist dennoch immer noch rätselhaft", bestätigt Volkmer. In einfachen Modellsystemen konnte die Arbeitsgruppe bereits zeigen, dass sich mit solchen biomimetischen Strategien perlmuttartige Oberflächen herstellen lassen. Von der Züchtung einer Beschichtung durch Polymerzusätze sei man noch sehr weit entfernt. Die Entdeckung des "flüssigen Kalkes" der dann durch chemische Stoffe ausgehärtet werde, ist jedenfalls ein großer Schritt.

Das Spektrum von potenziellen Anwendungen reicht von korrosionsbeständigen Beschichtungen über kratzfeste Autolacke und Leichtbauwerkstoffen bis hin zu neuartigen Knochenersatzwerkstoffen. Auch die Baustoffindustrie hat großes Interesse an einem solchen Werkstoff, erklärt der Forscher abschließend.

Innovation und Kreativität fördern - 3M unterstützt Oberösterreichischen EDISON Preis

Perchtoldsdorf (pts) - Am Dienstag, den 29. Juni 2010, wurden die drei Sieger des EDISON Preises 2010 gekürt. Der von der Johannes Kepler Universität Linz, der Fachhochschule Oberösterreich und der Kunstuniversität Linz getragene oberösterreichische Award prämiert kreative, technologieorientierte Produkt- und Dienstleistungsideen mit hohem Erfolgsspotenzial am Markt. Der internationale Multi-Technologiekonzern 3M ist Hauptsponsor des Wettbewerbs.

"Die Förderung von Innovation, Kreativität und Unternehmertum ist uns ein wichtiges Anliegen und tief in unserem Selbstverständnis verankert", erklärt Stefan Gabriel, Präsident 3M New Ventures. Dieser Bereich von 3M ist weltweit damit befasst, herausragende, für 3M neue Technologien und Geschäftsfelder zu identifizieren, zu akquirieren und zu entwickeln. Dabei liegt der Fokus auf hochinnovativen, schnell wachsenden Unternehmen in Trendmärkten sowie strategisch relevanten Bereichen wie Energie und Nachhaltigkeit, Wasser, Architektur und Licht, Kommunikation und Medien, Gesundheit, Mobilität sowie Sicherheit. 3M New Ventures beteiligt sich in Form einer strategischen Partnerschaft. Die finanzierten Unternehmen profitieren von den umfassenden Fähigkeiten und Erfahrungen von 3M, u.a. in Bereichen wie Vertrieb, Forschung & Entwicklung, Internationalisierung sowie Logistik und Produktion.

Felix Thun-Hohenstein, Managing Director 3M Österreich und Schweiz: "Unsere Stellung als eines der innovativsten Technologieunternehmen der Welt beruht ganz wesentlich auf der Art und Weise, wie wir Innovation betreiben: Unsere Mitarbeiter dürfen und sollen experimentieren und frei denken. So entstehen neue, innovative und effiziente Lösungen für unsere Kunden, die dann - mit der Erfahrung, Konsequenz, Qualität und Geschwindigkeit eines Weltkonzerns umgesetzt - Fortschritt und Vorsprung sichern. Die Offenheit im Denken und die Bereitschaft Ideen - gleichgültig, woher sie kommen - aufzugreifen, sind zentraler Bestandteil unserer Unternehmensphilosophie."

Vor kurzem von 3M Österreich ins Leben gerufen: http://www.zukunft-innovation.com . Die Seite vernetzt Unternehmen, die ungewöhnliche Vorschläge und Ansätze suchen, mit einer Online-Community aus kreativen Köpfen unterschiedlichster Bereiche.

EU-Patent für Lebendfermentation von Granatapfel

Tauberbischofsheim (pts) - Granatäpfel schmecken nicht nur gut, sondern sind auch außerordentlich gesund: Über 250 wissenschaftliche Studien belegen, dass die exotischen Früchte nicht nur vor Zellalterung, Arteriosklerose, Herz- und Kreislauferkrankungen sowie Alzheimer-Demenz schützen, sondern auch chronischen Entzündungsprozessen (z. B. Arthritis) und Krebserkrankungen, insbesondere Prostatakrebs entgegenwirken. Die gesundheitsfördernden Wirkungen des Granatapfels sind auf seine antioxidativen Pflanzenstoffe zurückzuführen, die sogenannten Polyphenole (Tannine, Flavonoide), die ihm auch sein einzigartiges, fruchtig-herbes Aroma verleihen.

In den letzten Jahren rückte der Granatapfel immer mehr in das Interesse wissenschaftlicher Forschung. Vor allem der einfach zu verzehrende Granatapfelsaft wurde in den letzten Jahren immer beliebter und intensiv untersucht. Dabei ist Saft nicht gleich Saft: Die Produkte unterscheiden sich sehr in Qualität und Wirkstoffgehalt (Polyphenole). Viele Mischsäfte enthalten sehr wenig Granatapfelsaft und auch die Säfte, die aus 100% Granatapfelsaft bestehen, enthalten nicht selten minderwertige Fruchtsäfte. Selbst qualitativ hochwertige Produkte mit hohem Polyphenolgehalt wirken nicht bei jedem Menschen gleich. Denn die Bioverfügbarkeit der Wirkstoffe hängt von der Beschaffenheit der Darmflora ab - und die ist individuell sehr unterschiedlich.

Mikroorganismen im Darm verwandeln die Polyphenole des Granatapfels in resorbierbare Substanzen - letztlich kommt der Gesundheit nur das zugute, was der Körper auch tatsächlich aufnimmt. Einer unzureichenden Verdauung kann auf die Sprünge geholfen werden: Probiotische Mikroorganismen können nach Fermentation des Saftes durch eigene Enzyme fehlende körpereigene Verdauungsleistungen teilweise ersetzen. Sie leisten eine Art natürliche Vorverdauung und verbessern dadurch die Bioverfügbarkeit und Bioaktivität der Polyphenole. Zudem bauen sie den fruchteigenen Zucker des Granatapfelsafts ab - ein Plus für Diabetiker.

Darum ist die Lebendfermentation mit probiotischen Mikroorganismen so wichtig und wurde als EU-Patent eingetragen. Das biologische Verfahren wurde von Dr. med. L.M. Jacob entwickelt und als Patent mit der Nummer EP2132994 am 26.05.2010 veröffentlicht. Bei der Fermentation werden u. a. Saccharomyces boulardii und ausgewählte Lactobazillen mit deren natürlichen Fermenten (Enzyme) verwendet.

Seit Jahrtausenden werden Fermentationsprozesse genutzt, um Lebensmittel verträglicher und gesünder zu machen. So gilt mit Recht Rotwein - in Maßen genossen - trotz des Alkohols als gesunder "Rostschutz für die Zellen". Lebendfermentierter Granatapfelsaft übertrifft Rotwein um ein Vielfaches in seiner antioxidativen Kraft. Isolierte hochdosierte Antioxidantien wie zum Beispiel Vitamin E werden in Fachkreisen immer umstrittener. Dagegen ist die Vielfalt an Granatapfel-Polyphenolen in ihrer fermentierten Form ein natürlicher Weg, die antioxidativen Schutzsysteme des Körpers zu stärken. http://www.drjacobsinstitut.de

Neuer Ozean entsteht in Ostafrika

Potsdam/London (pte) - Afrika wird sich teilen und ein neuer Ozean innerhalb des Kontinents entsteht. Zu erwarten ist dies zwar erst in zehn Mio. Jahren, doch ist der Prozess dazu längst im Laufen und kann heute schon besonders in der Afar-Region in Äthiopien beobachtet werden. Geologen der Universität Leeds präsentieren auf der soeben angelaufenen Summer Science Exhibition der britischen Royal Society http://royalsociety.org ein 3D-Modell, das dieses Phänomen verständlich macht.

"Es gibt weltweit nur sehr wenige Orte, an dem ein Ozeanriss nicht am Meeresboden, sondern am Land verläuft. Man kann in Ostafrika auf dem zukünftigem Ozeangrund herumlaufen", berichtet Birger-Gottfried Lühr vom Geoforschungszentrum Potsdam http://www.gfz-potsdam.de gegenüber pressetext. Ostafrika gilt somit unter Geologen als Hotspot für die Erforschung, wie sich ein Ozean entwickelt. Dieser Vorgang beginnt sehr klein, geht über mehrere Stufen und dauert auch entsprechend lange.

Künftiger Ozean im Rheintal

Die erste Vorstufe ist in Deutschland zu beobachten, so Lühr. "Auch das Rheintal ist eine Grabenstruktur, in der die Erdkruste schon von sonst 30 auf 20 Kilometer ausgedünnt ist." Bebt es in der Region auch immer wieder, so sind Vulkane erst dann zu erwarten, wenn der Graben breiter als 60 Kilometer wird. Das ist in Ostafrika der Fall, dessen Grabenboden teils auf ein Niveau von 150 Meter unter dem Meeresspiegel abgesunken ist. Allein das Danakil-Hochland verhindert noch, dass sich das Rote Meer auf den Graben ergießt und das neue Meer füllt.

Das Rote Meer selbst ist auch bereits der Prototyp für die nächste Stufe, kam es doch durch den Graben zustande, den das Auseinanderdriften von Afrika und der arabischen Halbinsel hinterließ. "Jahrmillionen später ist eine Entwicklung wie beim Atlantik zu erwarten, der symmetrisch aufgebaut ist und hat einen Mittelriss aufweist", so Lühr. Die Driftbewegung beschleunigt sich mit der Zeit. Beträgt sie im Rheintal nur um einen Millimeter jährlich, kommt das Rote Meer schon auf einen Zentimeter. Der Atlantik hat sich relativ früh im Süden geöffnet, weshalb die dortige Bewegungsrate über vier Zentimeter beträgt.

Pazifik ans Lebensende gelangt

Das Endstadium der Ozeane hat schließlich der Pazifik erreicht. "Er hat seine Symmetrie bereits verloren und ist nun auch an den Ozeanrändern aktiv. Dort taucht die ozeanische Lithosphäre unter die kontinentale und führt dabei zu sehr starken Erdbeben und explosivem Vulkanismus. Obwohl er der größte Ozean ist, zeichnet sich sein langsames Absterben zugunsten der anderen Weltmeere bereits ab", so Lühr.

Hintergrund dieser Bewegungen sind die Antriebe im Erdmantel, die sogenannten Konvektionsströme plastischen Materials. Diese beruhen auf der Aufheizung des absinkenden Materials und den damit verbundenen Dichteänderungen. "Schweres Material sinkt in die Tiefe und leichteres steigt auf. Betrachtet man die Erde über Jahrmillionen, so hat sie mehr Ähnlichkeit mit einer Flüssigkeit als mit einem starren Körper." Die Oberfläche der Erde verändert sich ständig, allerdings sind die meisten Bewegungen zu langsam, als dass man sie mit dem Auge wahrnehmen könnte. Ausnahmen bilden hier Erdbeben oder Vulkanausbrüche, zu denen es in Ostafrika zuletzt im Mai dieses Jahres kam.

 

Fraunhofer: Nano für die Sinne

Tokio - Gestochen scharfe Projektionen, ein Licht, das weißer ist als weiß, Lacke, die klingen, wenn sich die Temperatur ändert – auf der nano tech 2010 in Tokyo präsentieren Fraunhofer-Forscher Nanotechnik als Fest für die Sinne.

 Die Vitrine leuchtet mystisch; das weiße Licht scheint aus dem Nichts zu kommen; eine Lichtquelle ist – zumindest auf den ersten Blick – nicht zu sehen. Erst beim genauen Hinsehen wird die Ursache der scheinbar übersinnlichen Erscheinung sichtbar: Eine Leuchtdiode, kleiner als ein Stecknadelkopf, emittiert durch tausende von Linsenstrukturen, die nur einige hundert Nanometer klein sind, strahlendweißes Licht.

»Das Erzeugen von weißem Licht ohne Farbeffekte am Rand war lange Zeit ein kaum lösbares technisches Problem«, erklärt Dr. Michael Popall vom Fraunhofer-Institut für Silicatforschung ISC in Würzburg. »Weißes Licht entsteht, indem man die Komplementärfarben Rot, Grün und Blau mischt. Bei der klassischen Beamer-Technik traten dabei unerwünschte Brechungen auf, das Ergebnis waren bunte Schlieren am Rand der Projektion.« Die Technik, die der Forscher vom 17. bis 19. Februar auf der nano tech 2010 in Tokyo (Halle. 3.03 Stand F-14-1) präsentiert, liefert nicht nur brillante Farben, sondern auch reines Weiß: »Kleinste rote, blaue und grüne Leuchtdioden auf engstem Raum erzeugen das Licht, das mittels einer Konzentratoroptik gebündelt und anschließend durch eine nanostrukturierte ORMOCER®-Optik homogenisiert wird«, erläutert Popall, der an der Entwicklung des Werkstoffs maßgeblich beteiligt war.

ORMOCER®e seien ein ideales Material für die Herstellung von Mikrooptiken, resümiert der Forscher: »Sie sind nicht nur ausgezeichnete Lichtleiter, sondern auch leicht zu verarbeiten – nicht so spröde wie Glas und nicht so weich wie Polymer.« Tatsächlich sind ORMOCER®e ein Hybrid aus anorganischen und organischen Bestandteilen, die auf molekularer Ebene vernetzt sind. Mit diesem Material lassen sich Dinge realisieren, die noch vor ein paar Jahren undenkbar waren: ultraflache und ultrakleine Optiken für Mikrokameras oder Beamer, die in die Hosentasche passen. Das Design der neuen ORMOCER®-Optiken haben Experten vom Fraunhofer-Institut für Angewandte Optik und Feinmechanik IOF in Jena entwickelt. Popall: »Dank der enge Zusammenarbeit zwischen den Chemikern am ISC und den Physikern und Ingenieuren am IOF ist es uns gelungen, ORMOCER®-Tandem-Arrays mit beidseitig und symmetrisch zueinander angeordneten Mikrolinsenanordungen zu entwickeln, mit denen sich das Licht von Leuchtdioden punktgenau und ohne Brechungsfehler projizieren lässt.« Die neue Technik steht mittlerweile kurz vor der Markteinführung.

Nanotechnik eröffnet dabei nicht nur dem Auge eine neue Dimension, sie macht auch Dinge hörbar, die bisher niemand wahrnehmen konnte: Temperaturänderungen beispielsweise. Ein neuer Lack, den Forscher vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA entwickelt haben, sorgt dafür, dass Oberflächen klingen, wenn sie wärmer werden oder abkühlen. Der Trick: Im Lack befinden sich Carbon-Nanotubes, die elektrisch leitfähig sind. Ist eine Oberfläche mit diesem Lack beschichtet, so lässt sie sich durch Anlegen einer elektrischen Spannung aufheizen. Diese Temperaturveränderung ist hörbar, weil beim Erwärmen der Oberfläche daran angrenzende Luft zu schwingen beginnt. »Und dies ist nur eine von vielen denkbaren innovativen Anwendungen. Die Beschichtung eignet sich ebenso zum Beheizen kompliziert geformter Oberflächen und großer Flächen. In Zukunft ist ein Einsatz als multifunktionale Schicht zum Heizen, als Widerstandssensor oder als transparente Schicht für Farbdisplays denkbar«, sagt Ivica Kolaric, Abteilungsleiter am IPA.

»Die Interdisziplinarität ist die Stärke von Fraunhofer«, resümiert Popall: »In der Fraunhofer-Gesellschaft arbeiten 59 Institute zusammen. Das Know-how reicht vom Material über Technologie und Design bis zum Produktionsprozess.« Auf der nano tech 2010 In Tokyo präsentiert das ISC ein Spektrum optischer Materialien – von Gläsern über ORMOCER®e und deren Nanotechnologie bis zu Kunststoffen. Das IOF steuert hochpräzises optisches Design und Mikrotechnologie bei, das Fraunhofer-Institut für Elektronenstrahl- und Plasmatechnik FEP physikalische Beschichtungstechnik. Das Fraunhofer-Institut für Keramische Technologien und Systeme IKTS in Dresden zeigt Bearbeitungsverfahren, beispielsweise das Pressen von Glasoptiken oder das Beschichten mit Hilfe von Nanolithographie. Das IPA präsentiert den techischen Einsatz von Carbon-Nano-Tubes.

"Telepolis" - Auf der Suche nach außerirdischen Intelligenzen

Hannover – (Heise) Die ungelösten Rätsel des Universums und die Wahrscheinlichkeit für außerirdisches Leben sind die Schwerpunkte des neuen Telepolis Special Kosmologie. Anlass für das Sonderheft sind das gerade zu Ende gegangene Jahr der Astronomie sowie das 50-jährige Jubiläum von SETI, der wissenschaftlichen Suche nach intelligentem außerirdischem Leben. Das 146-seitige Magazin inklusive DVD erscheint am 15. Februar mit einer Auflage von 35.000 Exemplaren und kostet 8,90 Euro.

Gibt es außer der Menschheit noch andere Zivilisationen im All? Das größte der vielen Geheimnisse des Universums dürfte die bislang vergebliche Suche nach Alien-Signalen sein. Bislang wurden mehrere hundert Planeten gefunden, und hochgerechnet sollten Tausende von Zivilisationen allein in unserer Galaxie, der Milchstraße, existieren.

Aus Sorge um ihren guten Ruf diskutierten Wissenschaftler in den vergangenen Jahrzehnten über dieses Thema eher hinter vorgehaltener Hand: Wo sind sie? Wie kann man Leben im All nachweisen? Seit einigen Jahren melden sich jedoch auch renommierte Astrophysiker öffentlich zu Wort und rätseln.

Einige davon beleuchten zusammen mit namhaften Publizisten im Telepolis-Sonderheft diesen Aspekt der Kosmologie - sowohl aus naturwissenschaftlicher, aus soziologischer, aber auch aus theologischer Sicht. Stephen Hawking untersucht die Wahrscheinlichkeit für Leben im All und beschränkt das nicht nur auf biologische Daseinsformen, Dr. Goedard Palm und Professor Max Tegmark machen mit dem Multiversum-Konzept vertraut.

Die beiliegende Video-DVD ist der Beitrag der ESA zum internationalen Jahr der Astronomie. Sie schildert anschaulich die Geschichte der Astronomie mit ihren größten Erfolgen, aber auch Fehlschlägen und zukünftigen Herausforderungen.

Das Telepolis-Sonderheft Kosmologie ist im Bahnhofsbuchhandel und im ausgewählten Fachhandel erhältlich. Im Internet kann man es ab sofort europaweit ohne Mehrkosten bestellen: www.heise.de/kiosk/special/tp/10/01/

Google Wave sicherer als herkömmliche E-Mail Sicherheit und Privatsphäre laut Google bei Entwicklung im Mittelpunkt

Sydney/Bochum (pte) - Google Wave http://wave.google.com , der neue Echtzeit-Kollaborationsdienst des Internetriesen, bietet mehr Sicherheit als traditionelle E-Maildienste. Das behauptet zumindest der Google-Wave-Produktmanager Greg D'alesandre im Zuge einer Pressekonferenz in Sydney. Google habe bei der Entwicklung des Dienstes von Anfang an den Fokus auf Bereiche wie Sicherheit und Privatsphäre gelegt, anstatt darauf zu warten, sich erst im Nachhinein mit solchen Themen zu beschäftigen, betont D'alesandre.

Die von D'alesandre präsentierten Sicherheitsfunktionen von Google Wave - derzeit in einer geschlossenen Betaphase (pressetext berichtete: http://pressetext.com/news/091006002/) - sind vielfältig. Wie australische Medien berichten, gibt es beispielsweise diverse Sicherheitslevels, die dem "Mail-Spoofing", bei dem falsche Identitäten vorgetäuscht werden, vorbeugen sollen. Nach Aussagen des Produktmanagers ist das Wave-Protokoll sicherer, weil es besonders detaillierte Authentifikationsmechanismen beinhalte. Jedes kleine Bisschen an Information, die der User von anderen erhalte, sei zuvor bereits authentifiziert worden, sodass man davon ausgehen könne, dass die Leute auch wirklich jene seien, für die sie sich ausgeben.

Sicherheitsexperte warnt vor Datenschutz-Gau

"Wave vereint diverse Komponenten bewährter Kommunikationsmittel. Eine solche Funktionsvielfalt in Verbindung mit öffentlicher Netzwerkkommunikation macht die Entwicklung äußerst komplex" sagt Ralf Benzmüller, Leiter der G Data Security Labs http://www.gdata.de , gegenüber pressetext, der es für schwierig hält, Sicherheitslücken bei einem solchen Produkt zu vermeiden. "Selbst wenn alle Anwendungen sicher wären, müssten sich Nutzer im Klaren sein, dass sie ihre Daten aus der Hand geben. Wichtige Informationen liegen dann auf Rechnern, die Google kontrolliert", warnt Benzmüller. Sollte es einem Angreifer gelingen, sich Zugang zu den Daten zu verschaffen, käme das einem Datenschutz-Gau gleich.

Klassische E-Maildienste sind nach Meinung des Experten nach wie vor ein Hauptkanal zur Schädlingsverbreitung. "Schwachstellen in den Programmen zur Verarbeitung und Anzeige von E-Mails sind in den letzten Jahren allerdings nicht aufgetreten. Eine automatische Infektion beim Eintreffen der E-Mail ist daher äußerst selten", so Benzmüller.

Mondstaub erzeugt Wasser Europäisch-Indisches Mondprojekt entdeckt neue Aufnahmetechnik

Paris (pte) - Der Mond erzeugt Wasser durch Sauerstoffpartikel im Mondstaub, die mit elektrisch geladenen Teilen des Sonnenwindes reagieren. Das haben Forscher mit Hilfe eines Messinstruments namens Sub-keV Atom Reflecting Analyzer (SARA) auf der indischen Mondsonde Chandrayaan-1 entdeckt, berichtet die Raumfahrtsbehörde ESA http://www.esa.int . Die europäisch-indische Forschungsmission konnte darüber hinaus eine neue Darstellungsform des Mondes entwickeln, die auch auf anderen Objekte des Sonnensystems ohne Atmosphäre funktioniert.

Der Mond ist mit physikalisch verwitterten Lockersedimenten übersät, dem so genannten Mondregolith. In den Zwischenräumen dieser Staubkörner verfangen sich Protonen aus dem Sonnenwind, der den Mond dank seiner fehlenden Atmosphäre ungebremst erreicht, und dringen auch in den Mondstaub ein. Manche dieser Staubkörnchen enthalten Sauerstoff, der eine Reaktion eingeht und Hydroxyl und Wasser entstehen lässt. Die SARA-Messung bestätigte nun, dass die geladenen Wasserstoffkerne tatsächlich vom Mondregolith aufgenommen werden.

Erstaunt waren die Forscher jedoch über die Entdeckung, dass der Mondstaub nicht jedes von der Sonne eintreffende Proton absorbiert, sondern etwa jedes Fünfte mit Geschwindigkeiten bis zu 200 Stundenkilometern zurück ins All wirft. Dabei verbindet sich das Proton mit einem Elektron und wird zum Wasserstoffatom. "Wir haben nicht damit gerechnet, das alles zu sehen", betont Stas Barabash vom Schwedischen Institut für Raumphysik, an dem das SARA-Gerät entstand.

Während die Ursache dieser Reflektion noch unklar ist, gelang es den Wissenschaftlern ihre Existenz nutzbar zu machen - in Form einer neuen Kamera für den Mond und andere Himmelselemente. Denn Wasserstoff entweicht ohne Ablenkung aus dem schwachen Gravitationsfeld des Mondes und wird aufgrund seiner elektrischen Neutralität auch nicht von Magnetfeldern im All abgelenkt. Ähnlich wie die Photonen des Lichts bewegen sich die Atome daher in geraden Linien, die eine Rückverfolgung jedes Atoms bis zu seinem Ursprung ermöglicht. Das kann für eine neue Bildtechnik für die Darstellung der Oberfläche genutzt werden. Gebiete mit viel Wasserstoff-Abstoß erscheinen dabei heller als solche, die wenig zurücklenken.

Weltgrößter Krater vor Indiens Küste entdeckt 40-Kilometer-Asteroid könnte Dinosauriersterben ausgelöst haben

Lubbock/Potsdam (pte) - Nicht auf der mexikanischen Halbinsel Yucatan, sondern vor der indischen Küste könnte der Asteroid eingeschlagen haben, der vor 65 Mio. Jahren das Ende der Dinosaurier eingeleitet haben soll. Zu diesem Schluss kommen Forscher der Texas Tech University http://www.ttu.edu am Jahrestreffen der US-amerikanischen Geologen. Die Wissenschaftler um Sankar Chatterjee fanden Hinweise, dass das sogenannte "Shiva-Becken" im Indischen Ozean der Einschlagskrater eines 40-Kilometer-Asteroiden ist, der seinen mexikanischen Kollegen an Größe um das vierfache übertraf.

Der Krater besitzt im Zentrum eine Erhebung, die als "Bombay High" schon bisher als Abbaugebiet für Öl und Gas bekannt war. Umgeben ist er von mehreren Ringen, deren äußerster einen Durchmesser von über 500 Kilometern besitzt. Der Krater befindet sich zur Gänze auf der indischen Kontinentalplatte und ist vom Ozean verdeckt, Teile der Ringe berühren jedoch auch Festland und zeigen sich dort durch hohe Klippen, aktive Bruchlinien und heiße Quellen. Laut den Forschern handelt es sich um den größten Krater der Erde.

Der Einschlag dürfte die Erdkruste, auf die der Asteroid traf, verdampfen und ultraheißes Bodenmaterial in die Höhe schießen haben lassen. Die Forscher spekulieren, dass dadurch die Aktivität der Vulkanregion Dekkan Trapp in Westindien verstärkt wurde. Besonders soll der Einschlag jedoch dazu geführt haben, dass die Seychelleninseln von der indischen Platte abgebrochen sind und seither Richtung Afrika driften.

These neu in der Geologie

"Französische Wissenschaftler haben schon bisher vermutet, dass die starke vulkanische Aktivität der Dekkan-Region ein Grund für das Aussterben der Saurier war. Dass ein Asteroideneinschlag im indischen Ozean der Auslöser dafür sein konnte, war bisher nicht in Diskussion", erklärt Bernhard Steinberger vom deutschen Geoforschungszentrum Potsdam http://www.gfz-potsdam.de , im pressetext-Interview.

Steinberger beschäftigt sich schon länger mit der Modellierung der vulkanischen Bewegungen in der Dekkan-Region. "Die Region ist reich an Flutbasalt, der nur entsteht, wenn es binnen kurzer Zeit zu viel Vulkanismus kommt. Das einst vulkanische Gebiet ist eine halbe Mio. Quadratkilometer groß und hat eine bis zu zwei Kilometer dicke vulkanische Bedeckung." Die Vulkane Westindiens seien just zur Zeit des Sauriersterbens vor 65 Mio. Jahren aktiv gewesen, über eine relativ kurze Zeitspanne von einer Mio. Jahren. "Damals war Indien dort wo sich heute La Réunion befindet. Heute gibt es nur mehr auf dieser Insel Vulkanismus."

Dass sich am Meeresboden Krater befinden, die bisher noch nicht entdeckt wurden, ist für Steinberger nachvollziehbar. Zwar kenne man die Topografie des Meeresbodens sehr genau, doch beruhten diese Aufzeichnungen meist nur auf Schwerefeld-Messungen durch Satelliten. "Es ist durchaus möglich, dass Krater im Lauf der Zeit mit Sedimenten verdeckt wurden. In diesem Fall bringen erst seismische Experimente Aufklärung", so der Potsdamer Forscher.

Weitere Forschungen geplant

Um weitere Beweise für einen Asteroiden-Einschlag zu finden, wollen die US-Geologen nun Felsen im vermuteten Kraterzentrum anbohren. "Durch zerstörtes und geschmolzenes Gesteinsmaterial hoffen wir, nähere Details über den Einschlag zu finden. Insbesondere gilt es zu überprüfen, ob es Vorkommen von Naturbeton, Quarz oder Iridium-Anomalitäten gibt", so Forschungsleiter Chatterjee. Asteroiden sind reich an Iridium, weshalb solche Unregelmäßigkeiten einen wichtigen Hinweis darstellen können.

Übertriebene Genauigkeit ist verhängnisvoll Schlechtere Messdaten durch falsche Nachkomma-Speicherung

Remagen (pte) - Genauigkeit kann statistischen Messdaten auch zum Verhängnis werden. Das bericht Markus Neuhäuser, Statistiker am ReinAhrCampus Remagen http://www.fh-koblenz.de in der Zeitschrift Behavioral Ecology and Sociobiology. Gemeinsam mit einem britischen Kollegen entdeckte Neuhäuser, dass die Effizienz der statistischen Verfahren sinkt, wenn Größen automatisiert gemessen und mit übertriebener Genauigkeit abgespeichert werden. "Erst kürzlich wurde bekannt, dass man die Zeit noch genauer als mit derzeitigen Atomuhren messen kann. Das ist ein Fortschritt, der zu begrüßen ist. Problematisch ist hingegen, wenn Messdaten durch übertrieben genaue Speicherung im Nachkommastellen-Bereich verzerrt werden und dadurch Scheingenauigkeit entsteht", so der Forscher im pressetext-Interview.

Aufgekommen ist das von Neuhäuser beschriebene Problem erst mit der enormen Preissenkung von Speicherplatz in den vergangenen Jahren. "Früher war Speicherung wesentlich teurer. Im vorigen Jahrhundert wurde die Zahl '19' bei Jahresangaben in der Regel gar nicht mitgespeichert, was der eigentliche Grund für das Jahr-2000-Problem war." Heute sei Speicherplatz so billig, dass man beliebig viele Kommastellen nach der Null abspeichern könne. "Eine Temperatur von 17,2 Grad Celsius kann etwa im Computer als 17,200005 gespeichert werden. Ähnlich ist der Effekt, wenn Werte weiter umgerechnet werden."

Zum Problem wird die Scheingenauigkeit bei bestimmten statistischen Verfahren, erklärt Neuhäuser. "Viele Verfahren basieren nicht auf den Rohdaten, sondern auf Rangfolgen, die man den Werten nach ihrer Größe zuteilt. Löste man bisher das Problem gleich großer Werte stets durch Vergabe von Mittelrängen, was mathematisch die beste Lösung ist, führt heute die Scheingenauigkeit in den Nachkommastellen der Werte zur Vergabe stets verschiedener Ränge. Welche Ränge zwei scheinbar gleichen Messwerten zugeteilt werden, entscheidet dabei oft der Zufall, was den statistischen Test schlechter macht." Relevant sei dies in erster Linie für die Wissenschaft und könne das Ergebnis medizinischer Untersuchungen beeinflussen.

Als Vorschlag für einen besseren Umgang mit Messdaten schlägt Neuhäuser die Rundung von Zahlen gemäß der Präzision der zugrunde liegenden Messung vor. "Dieser Schritt ist sehr einfach, wird jedoch oft übersehen." Ein Beispiel dafür sei der Body-Mass-Index (BMI), der durch die Messwerte Größe und Gewicht ermittelt wird. "Der Quotient, mit dem gerechnet wird, ist eine reelle Zahl mit beliebig vielen Nachkomma-Stellen. Um die Genauigkeit zu gewährleisten, muss man deren Nachkommastellen entsprechend der Genauigkeit der Messung runden." Für den BMI einer Einzelperson sei dieses Problem irrelevant, nicht jedoch für größere Studien, so der Remagener Statistiker. "Werden etwa zwei Diätformen verglichen, könnte die Scheingenauigkeit auch die Testergebnisse beeinträchtigen. Im Extremfall kommt dadurch ein unterschiedliches Ergebnis zustande."

Wiener Meeresbiologen erforschen marine Todeszonen Sauerstoffkrisen in Plexiglaskammer am Meeresboden untersucht

Wien (pte) - Weltweit gibt es in Küstenbereichen etwa 400 sauerstoffarme Todeszonen (Dead Zones). Besonders betroffen davon ist beispielsweise der Golf von Mexiko. Aber auch an der oberen Adria kommt es immer wieder zu diesem Phänomen. Ein Forscherteam um Michael Stachowitsch, Bettina Riedel und Martin Zuschin vom Department für Meeresbiologie bzw. Institut für Paläontologie der Universität Wien http://www.marine.univie.ac.at ist nun der Problematik in der nördlichen Adria vor der slowenischen Küste experimentell auf den Grund gegangen.

"Ursache des Massensterbens am Meeresgrund sind sogenannte Sauerstoffkrisen", erklärt Riedel im pressetext-Interview. "Man nennt diese Nährstoffanreicherung im Gewässer Eutrophierung." Über verschmutzte Flüsse gelangen zu viele Nährstoffe wie Stickstoff oder Phosphor ins Meer und fördern das Wachstum von Algen und Phytoplankton. Beim Abbau dieser Biomasse entsteht Sauerstoffmangel. "Wenn wasserfiltrierende Organismen wie Schwämme und Muscheln sterben, müssen an ihrer Stelle Bakterien das organische Material verwerten. Das kostet aber noch mehr Sauerstoff", erklärt die Meeresbiologin. "Uns hat interessiert, was am Meeresboden im Detail passiert, wenn eine solche Todeszone entsteht."

"Wir müssen aber nicht auf eine solche Sauerstoffkrise warten, denn mit der 50 mal 50 mal 50 Zentimeter großen, würfelförmigen Plexiglaskammer EAGU (Experimental Anoxia Generating Unit) können wir am Meeresboden eine solche Situation kleinflächig nachstellen", so Riedel. In dem abgeschlossenen System wird in ca. 48 Stunden eine Minisauerstoffkrise erzeugt. Eine Zeitrafferkamera schießt alle paar Minuten Fotos, Sensoren messen Sauerstoff, Schwefelwasserstoff, Temperatur und den pH-Wert. Fünf bis sieben Tage dauert ein solches Experiment. Die dabei gewonnenen Daten geben Aufschluss über die Verhaltensänderung der Fauna sowie Änderungen in der Sedimentgeochemie bei Sauerstoffmangel, aber auch über die erste Wiederbesiedlungsphase einer solchen Dead Zone. "Eine volle Wiederbesiedlung bis zur Herstellung einer stabilen Lebensgemeinschaft dauert bis zu einer Dekade", so Riedel.

Besonders interessiert hat die Forscher dabei, welche Arten empfindlich und welche toleranter sind. Im Kubus eingeschlossen waren Schwämme, Seescheiden, Schlangensterne, Seeigel, Seegurken und Schnecken, aber auch kleine Krebstiere. "Im Ergebnis konnten wir feststellen, dass Stachelhäuter wie etwa Schlangensterne zum Beispiel sehr empfindlich auf Sauerstoffänderungen reagieren, während Seeanemonen eher toleranter waren", erklärt Riedel. Ziel des Projekts ist es, einen Verhaltenskatalog der betroffenen Arten zu erstellen. "Wenn man weiß, welche Arten empfindlich sind und welche weniger, kann man an der Biodiversität und am Verhalten der Lebewesen in einem bestimmten Areal ablesen, wann die letzte Sauerstoffkrise war, oder ob eine bevorsteht", erklärt Stachowitsch. "Auch wenn die Ausmaße der Katastrophe an der Meeresoberfläche nicht immer sichtbar sind: Letztendlich trifft es uns alle, wenn eines der produktivsten marinen Ökosysteme, nämlich seichte Küstengewässer, kippen", so der Meeresbiologe. Die Nordadria ist nämlich ein sehr vielfältiges Ökosystem mit einer sehr reichen Fauna, bestätigt Riedel.

Wahrnehmung der bittersten Substanz geknackt Enzian-Inhaltsstoff noch in Verdünnung 1:58 Mio. wahrnehmbar

Potsdam-Rehbrücke (pte) - Wie der Mensch den bittersten in der Natur vorkommenden Stoff wahrnimmt, konnten Molekulargenetiker am deutsches Institut für Ernährungsforschung (DIfE) http://www.dife.de nun erstmals zeigen. In der Fachzeitschrift Journal of Agricultural and Food Chemistry beschreiben sie, wie acht der 25 bekannten Bitterrezeptor-Gene des Menschen (TAS2R43 bis 50) mit verschiedenen Bitterstoffen interagieren. "Der Mensch schafft es, mit 25 Rezeptoren mehrere tausend natürliche Bitterstoffe zu identifizieren. Wir haben nun unter anderem entschlüsselt, durch welche Mechanismen die bitterste dieser Substanzen erkannt wird", berichtet Studienleiter Maik Behrens im pressetext-Interview.

Bei der bittersten Substanz handelt sich um Amarogentin, mit dem sich der Enzian vermutlich vor Fressfeinden schützt. Er ist so bitter, dass er selbst in einer Verdünnung von eins zu 58 Mio. noch deutlich wahrgenommen werden kann. "Das entspricht einem zwei-Zentiliter-Schnapsglas, das man in 5.800 Badewannenfüllungen schüttet", erklärt Behrens. Das trotz seiner Bitterkeit kaum giftige Amarogentin besitzt in Dosen, die eben noch im menschlichen Wahrnehmungsbereich liegen, gesundheitsförderliche und infektionsabwehrende Wirkungen, die etwa im Enzianschnaps ausgenutzt werden. "Schnäpse und Liköre sind absichtlich bitter, da man ihnen dadurch verdauungsfördernde Wirkung zuschreibt. Es gibt allerdings kaum verlässliche Studien, die diese Wirkung belegen", so der Molekulargenetiker. Bei vier Rezeptortypen konnten die Forscher nun feststellen, dass sie durch Amarogentin aktiviert werden.

Dass der Mensch Bitterstoffe überhaupt als solche erkennt und unterscheiden kann, verdankt er 25 Bitterrezeptor-Genen, die ähnlich wie Sensoren an der Spitze der Geschmackszellen angeordnet sind. "Diese Zellen befinden sich auf den roten Pünktchen auf der Zunge, den sogenannten Geschmackspapillen, an der Zungenseite sowie im oberen Gaumenbereich", erklärt Behrens. Gelangt eine Substanz an den passenden Rezeptor, löst dieser ein Zellsignal aus und leitet dieses weiter ans Gehirn, wo schließlich die Bitterkeit registriert wird. Allerdings werden Bitterstoffe auch in anderen Körperregionen wahrgenommen, wenn auch nicht als Geschmack. So zeigten etwa Studien an Nagetieren, dass Rezeptoren im Luftkanal der Nase die Atmung regulieren, was ein Schutzmechanismus bei giftigen Dämpfen sein dürfte. Andere Bitterrezeptoren im Magen und Darm dürften für die Verdauung wichtig sein.

Bitterkeit signalisiert Tier und Mensch Vorsicht vor potenziell giftigen Substanzen. Die Aversion gegenüber Bittergeschmack ist uns angeboren, reagieren doch kleine Kinder anfangs ausschließlich ablehnend auf Bitteres und lernen erst mit der Zeit, dass der Geschmack nicht immer Ungenießbarkeit bedeutet. "Der Mensch verfügt auch über mehrere funktionslose Bitterrezeptoren, sogenannte Pseudogene, die zu früheren Zeiten der Evolution ebenfalls Bitterstoffe wahrnahmen. Das lässt darauf schließen, dass das Erkennen von Bitterkeit in früheren Zeiten für das Überleben noch wichtiger war als heute", so Behrens. Das Finden aller menschlichen Rezeptoren für Bitterstoffe könnte eines Tages dazu führen, dass die bittere Wahrnehmung für bestimmte Zwecke gezielt ausgeschaltet werden kann. "Medikamente oder gesundes Gemüse könnten dadurch eines Tages angenehm schmecken", hofft der Potsdamer Wissenschaftler.

Zöliakie: Immunsystem verursacht Osteoporose

Edinburgh (pte) - Menschen mit Zöliakie, einer chronischen Erkrankung der Dünndarmschleimhaut, könnten anfälliger für Osteoporose sein, weil ihr eigenes Immunsystem das Gewebe ihrer Knochen angreift. Osteoporose ist bei Zöliakie ein bekanntes Risiko und wurde bisher damit erklärt, dass nicht ausreichend Kalzium oder Vitamin D aufgenommen werden. Wissenschaftler der University of Edinburgh http://www.ed.ac.uk gehen jedoch davon aus, dass die Betroffenen Antikörper produzieren, die ein für die Gesundheit des Knochens entscheidendes Protein angreifen. Eine Behandlung wäre laut dem Team um Stuart Ralston vom Institute of Genetics and Molecular Medicine http://www.igmm.ac.uk leicht mit Medikamenten möglich, die den Verlust an Knochenmasse verhindern.

Damit ist auch erklärt, warum Menschen mit Erkrankungen des Verdauungstraktes nicht auf eine Behandlung mit Kalzium und Vitamin D reagieren. Zöliakie wird durch die Reaktion auf Gluten, ein im Weizen enthaltenes Protein hervorgerufen. In der Folge werden die Dünndarmzotten geschädigt, die bei der Verdauung eine entscheidende Rolle spielen. Bei einer Beeinträchtigung und Entzündung können die Zotten Nahrungsmittel nicht mehr richtig aufnehmen. Durchfall und Unterernährung entstehen. Betroffen ist einer von 100 Menschen. Ein erheblicher Teil von ihnen kann an Osteoporose erkranken.

Entscheidend ist laut den Wissenschaftlern das Protein Osteoprotegerin, das für den Zusammenhang zwischen Zöliakie und Osteoporose von entscheidender Bedeutung ist. Bei 20 Prozent der getesteten Zöliakie-Patienten wurden Antikörper gebildet, die die Funktion dieses Proteins stoppten. Ralston betonte laut BBC, dass Antikörper-Tests den Betroffenen wirkliche Vorteile bringen könnten. Damit könnte das Osteoporose-Risiko erkannt und ein passender Behandlungsansatz gefunden werden. Details der Studie wurden im New England Journal of Medicine veröffentlicht. monschein@pressetext.com

Käseartige Knochen machten Saurierhälse stabil

Berlin (pte) - Die großen Pflanzenfresser unter den Dinosauriern schafften es aufgrund eines raffinierten Knochen- und Muskelaufbaus, ihre überlangen Hälse stabil zu halten. Das berichten Paläontologen aus Berlin, Basel und Brugg in der Zeitschrift Proceedings of the Royal Society Biological Sciences. Sie wandten eine Analyseform, die bei der Belastungsmessung von Bauteilen zum Einsatz kommt, bei Skeletten des Brachiosaurus und des Diplodocus an und konnten daraus neue Erkenntnisse gewinnen.

"Der Trick dieser größten Tiere, die jemals auf dem Planeten lebten, besteht darin, dass ihre Halswirbel von Luftsäcken durchlöchert waren, sowie ein spezieller Muskelaufbau", berichtet Studienleiterin Daniela Schwarz-Wings vom Berliner Museum für Naturkunde http://www.museum.hu-berlin.de im pressetext-Interview. Der bis zu neun Meter lange Hals des Brachosaurus wog ursprünglich rund 600 Kilogramm. "Ohne seinen speziellen Aufbau wäre er um ein Drittel schwerer", so Schwarz-Wings.

Die erste Besonderheit sei die Leichtigkeit der Knochen gewesen, die durch eine Befüllung mit Luftsäcken erreicht wurde. "Menschliche Knochen etwa sind mit deutlich schwererem Knochenmark gefüllt. Die bis zu ein Meter langen Hals- und Rumpfwirbel der Sauropoden umhüllten hingegen luftgefüllte Gewebeblasen. Diese drangen teilweise sogar bis ins Wirbelinnere vor und machten die Knochen löchrig wie Käse." Bei Spannung wurde die Kraft daher nicht etwa durch Innenverstrebungen der Knochen verteilt, sondern nach dem Prinzip des Fachwerkbaus an die Außenseite weitergeleitet. Auch die Muskeln waren in viele kleine Einheiten gegliedert und brauchten daher nur wenig Ansatzfläche an den dadurch noch kleineren Knochen.

Eine ähnliche Knochenkonstruktion haben später die Raubsaurier und in Folge auch deren heutige Verwandte, die Vögel, übernommen. Wenngleich die Leichtbauweise des Halses nun eine bislang fehlende Erklärung für die gewaltige Größenentwicklung der Saurier liefert, bleiben bestimmte Details noch ein Rätsel der Paläontologen. "Einerseits ist noch unklar, wie die Luftsäcke der Wirbel zueinander verbunden und wie die Halsmuskeln verteilt waren. Erforscht werden muss auch noch die Funktion der stabartigen Halsrippen im unteren Halsbereich. Diese könnten entweder ebenfalls zur Stabilisierung eingesetzt worden sein oder die Funktion von Sehnen übernommen haben", erklärt Schwarz-Wings. pernsteiner@pressetext.com

Bakterien an der Goldentstehung beteiligt

Adelaide/Halle (pte) - Ein Bakterium ist verantwortlich dafür, dass goldhaltige Lösungen zu metallischen Goldpartikeln umgewandelt werden. Das berichtet ein internationales Forscherteam in der Zeitschrift "Proceedings of the National Academy of Science". Die Wissenschaftler konnten das Bakterium "Cupriavidus metallidurans" als Katalysator für die Biomineralisation von Gold bestimmen. "Es kreiert einen Nukleus für die Bildung von metallischem Gold und entgiftet Goldionen, wodurch Goldkörnchen wachsen können", erklärt der Mikrobiologe Dietrich Nies von der Universität Halle-Wittenberg http://www.biologie.uni-halle.de/microbiology im pressetext-Interview. Nies beteiligte sich mit seinem Team an der Forschung durch die Identifikation von Genen des Bakteriums, die für den Goldtransfer verantwortlich sind.

Schon früher hatte man festgestellt, dass auf Goldoberflächen Mikrobien in einem Biofilm wachsen, ohne dass deren Rolle untersucht wurde. Nun beobachteten die Forscher unter der Leitung von Frank Reith von der Universität Adelaide http://www.adelaide.edu.au im Labor, was C. metallidurans in einer Goldlösung bewirkte. Goldkomplexe sind giftig and lösen in C. metallidurans unter anderem oxidativen Stress aus. Das Bakterium beantwortet diese Bedrohung durch das Anschalten von Metallresistenz-Systemen, welche Gold-Ionen binden und zu metallischem Gold reduzieren. Sichtbar wurden diese Prozesse, indem man zur Analyse erstmals die Synchrotronstrahlung, die Photonen-Lichtquelle sowie molekulare mikrobielle Techniken miteinander kombinierte.

"Es scheint, als ob dieses Bakterium notwendig ist, damit Gold entstehen kann", so Nies. Die beobachtete Reduktion von Ionen zu metallenen Verbindungen auf diese Weise sei auch bei Silber und Kupfer denkbar. "Vielleicht ist es möglich, eines Tages die Goldentstehung zu beschleunigen, indem man das Bakterium an Standorten mit dünnen Goldsüppchen einsetzt." Eine andere Möglichkeit der praktischen Anwendung des Gold-spezifischen Genregulators könne die Entwicklung von Biosensoren sein, die Mineralforschern bei der Suche nach natürlichen Goldvorkommen unterstützen. Studienleiter Reith vertröstet diesbezüglich jedoch auf die Zukunft. "Um das zu erreichen, müssen die beteiligten Genome und Proteine des Genregulators noch genauer beschrieben werden."

 

Davor:

 

 

Begegnung mit einer farbigen Vergangenheit - Wiederhold

Weitere News-Rubriken:
News Ticker Umwelt (Eco-News)
News-Ticker Kommunikation
 

 

 

DNAdigital - Neues Managementbuch zum Dialog der Generation Internet mit Top-Entscheidern

Hamburg/Heidelberg (ots) - Ein neues Managementbuch zeigt Entscheidern in Unternehmen, welche Bedürfnisse die neue Generation der Arbeitskräfte hat und wie ihre Potentiale optimal genutzt werden können. Die Digital Natives sind aufgewachsen mit Blogs, Twitter, Facebook & Co und werden die Arbeitswelt nachhaltig verändern. Ihre Dialoge mit Top-Managern der deutschen Wirtschaft wurden nun im Buch "DNAdigital - Wenn Anzugträger auf Kapuzenpullis treffen - Die Kunst, aufeinander zuzugehen" festgehalten. Das Werk ist online erschienen unter www.dnadigital.de sowie als Printversion im whois verlag.

Die in Kollaboration von Digital Natives und Top-Managern entstandenen Beiträge diskutieren das Selbstverständnis der Digital Natives mit vernetztem Arbeiten in flachen Hierarchien, was dieses für Leadership in Unternehmen bedeutet und wie durch den Einsatz von Web 2.0 Technologien der Wandel zu einem Enterprise 2.0 gestaltet werden kann. Neben Fachartikeln über beispielhafte Projekte und neue Arbeitsformen ist auch ein Manifest enthalten über die Lebensweise der Generation Internet. Das Buch veranschaulicht u.a. wie Verantwortliche durch gegenseitiges Lernen mit den Digital Natives das Arbeitsumfeld und die eigenen Arbeitsabläufe optimieren können.

Zahlreiche Top-Manager, Vorstände und Experten haben sich beteiligt und teilen ihre Visionen und Erfahrungen. Darunter sind Unternehmen wie Alcatel-Lucent, Best Buy, Cisco, Deutsche Telekom, IDS Scheer, der Dirigent Itay Talgam, die Harvardprofessoren Urs Gasser und David Weinberger, der Internet-Visionär Don Tapscott, der Gartner-Analystenchef Peter Sondergaard und der Netzwerkspezialist Prof. Peter Kruse.

Dr. Willms Buhse, Mitherausgeber des Buches und Enterprise 2.0 Experte der Unternehmensberatung doubleYUU: "Es steckt eine Menge kollektive Intelligenz zwischen den Buchdeckeln. Dieses Buch ist im echten Dialog zwischen Digital Natives und Managern entstanden. Wir haben die Prinzipien des Enterprise 2.0, nämlich Offenheit, Transparenz und Vernetzung, hier erfolgreich ausprobiert und gelebt. Nur so konnten wir mit hoher Dynamik und viel Kreativität das Buch von Idee bis Druck in 80 Tagen fertig stellen. In diesem Prozess zeigt sich das enorme Potential von Web 2.0 für Unternehmen."

"Viele Artikel haben Digital Natives und Top-Manager ganz im Spirit der Initiative gemeinsam geschrieben. Es hat daher viel 'dialogisches' und ist sehr lebendig. Für uns war wichtig, das Buch unter einer Creative Commons Lizenz (non-commercial share alike) zu veröffentlichen und das PDF frei verfügbar zu machen. So konnten wir schon einen Tag nach Veröffentlichung mehr als 1.000 Views verzeichnen, heute sind es über 3.000", ergänzt Ulrike Reinhard, Mitherausgeberin und Inhaberin des whois verlages.

Digital Native und Blogger Timo Heuer sieht großes Potential: "Dieses Buch macht sehr gut deutlich wie wir leben und arbeiten. Es hilft unsere Bedürfnisse zu verstehen und attraktive Arbeitsplätze zu schaffen."

Das Buch schließt an die Initiative DNAdigital an, die im Vorfeld des letzten nationalen IT-Gipfels von Dr. Willms Buhse und Sören Stamer, CEO von CoreMedia, ins Leben gerufen wurde. In der Projektgruppe "Medien der Zukunft" der Arbeitsgruppe 2 trafen dabei Digital Natives auf einem Open Space erstmals mit Top-Entscheidern deutscher Unternehmen aufeinander, um gemeinsam an wesentlichen Zukunftsfragen im Kontext der Nutzung von neuen Internet-Anwendungen (Web 2.0 und Social Networks) in Unternehmen zu arbeiten. Zeitgleich entstand eine lebendige Plattform (www.dnadigital.de) mit aktuell knapp 500 Mitgliedern. Dr. Willms Buhse und Sören Stamer haben den Einsatz von Web 2.0 Tools in Unternehmen und die Rolle der Digital Natives in ihrem Herausgeberband "Enterprise 2.0 - Die Kunst, loszulassen" bereits diskutiert.

"DNAdigital - Wenn Anzugträger auf Kapuzenpullis treffen" ist erschienen im whois verlag und ist erhältlich im Buchhandel, bei Amazon und online unter www.dnadigital.de. Eine PDF-Version ist kostenlos bei www.scribd.com unter http://bit.ly/MRfqj ebenfalls abrufbar.

"DNAdigital - Wenn Anzugträger auf Kapuzenpullis treffen" Paperback ISBN 978-934013-98-8 Preis: 29,80 Euro 260 Seiten

Traditionelle IT-Sicherheitsmechanismen greifen nicht mehr / Studie von Palo Alto Networks

München (ots) - Zum dritten Mal hat Palo Alto Networks eine Studie durchgeführt, die untersucht, welche Applikationen in Firmennetzen zum Einsatz kommen, wie sie genutzt werden und welche Geschäftsrisiken damit verbunden sind. Die Ergebnisse zeigen deutlich: Traditionelle Sicherheitsprodukte sind damit überfordert, zuverlässig zu kontrollieren, welche Anwendungen in Unternehmensnetzwerken zum Einsatz kommen und sie scheitern daran zu steuern, wie Mitarbeiter sie nutzen.

Alle sechs Monate untersucht Palo Alto Networks die Aktivitäten von mehr als 900.000 Benutzern in den Firmennetzwerken von rund 60 großen Unternehmen unterschiedlicher Branchen. Die Erkenntnisse aus der aktuellen Studie sind eindeutig: Obwohl jedes Unternehmen, das an der Studie teilnahm, mit einer traditionellen Firewall ausgerüstet ist und 87 Prozent eine oder mehr zusätzliche Vorsichtsmaßnahmen wie Proxy, Intrusion-Prevention-Systeme oder URL-Filter einsetzen, liefern die verwendeten Sicherheitssysteme keine ausreichende Transparenz über die angewandten Applikationen und noch weniger können sie deren Einsatz kontrollieren.

- Im Schnitt sind sechs Peer-to-Peer-File-Sharing-Applikationen in 92 Prozent der Unternehmen aktiv. In einigen Firmennetzwerken liefen mehr als 17 Varianten. - Browser-basiertes File-Sharing läuft in 76 Prozent der Firmen in fünf verschiedenen Varianten. - In fast allen Firmen laufen Anwendungen, mit denen Mitarbeiter die Sicherheitskontrollen der Unternehmensnetze umgehen können.

Das Problem: Moderne Applikationen sind heutzutage standardmäßig so konzipiert, dass sie unproblematisch durch die üblichen Sicherheitskontrollen der Firmennetze hindurchschlüpfen und dort ungehindert Zugang erhalten. Die Analyse zeigt, dass mehr als die Hälfte von insgesamt 500 Applikationen unproblematisch und unerkannt die traditionellen Sperren passierte (mit Methoden wie Port Hopping oder Nutzung von Port 80 und Port 443, die typischerweise für Web Browsing oder SSL-Traffic vorgesehen sind).

Zusätzlich zu den Sicherheitsrisiken, die diese Programme in sich tragen, beanspruchen sie erhebliche Bandbreite. Die Studie belegt, dass mehr als die Hälfte der Bandbreite von 28 Prozent der Anwendungen im Firmennetz verbraucht wird. Davon gehören die meisten zu den Consumer-orientierten Programmen.

"Gerade in wirtschaftlich schwierigen Zeiten ist es fahrlässig, dass Unternehmen Budgets für Sicherheitsprodukte verschwenden, die nicht funktionieren", moniert Lane Bess, President and CEO of Palo Alto Networks. "Es ist offensichtlich, dass sich Anwendungen und Bedrohungen im Laufe der Zeit gewandelt haben. Die traditionelle Firewall-Technologie ist jedoch stehen geblieben."

"Wir haben eine identische Problemsituation auch in deutschen Unternehmensnetzwerken", bestätigt Torsten Scheuermann von Palo Alto Networks Deutschland. "Die Sicherheitsbedrohungen sind dieselben und die Erkenntnisse aus unserer Studie haben demnach auch für Deutschland eine hohe Relevanz."

Zur Studie

Die Studie "Application Usage and Risk Report" von Palo Alto Networks untersucht in mehr als 60 großen Unternehmen aus unterschiedlichen Branchen, welche Anwendungen in den Unternehmensnetzwerken laufen und wie sie genutzt werden. Die aktuelle Studie wurde zwischen August 2008 und Dezember 2008 durchgeführt und zeigt repräsentativ das Verhalten von fast 900.000 Nutzern.

Komplette Studie: http://www.paloaltonetworks.com/literature/AUR_report0409.html .

20 Jahre iX Magazin für professionelle Informationstechnik / Verlässliche Informationen für IT-Profis

Hannover (ots) - Komplexes IT-Insiderwissen rund um vernetzte Computer: Seit zwanzig Jahren bietet das Fachmagazin iX aus dem Heise Zeitschriften Verlag anspruchsvollen Lesestoff für IT-Profis. Die Jubiläumsausgabe 5/09, die am 30. April erscheint, enthält eine DVD mit den wichtigsten Programmierumgebungen für .Net, Java, Ruby und PHP. Darüber hinaus lädt die Redaktion zum Gewinnspiel ein: Unter den Lesern, die IT-Produkte aus den vergangenen 20 Jahren richtig zuordnen, werden 20 iPod touch verlost.

iX erschien 1988 erstmals als c't-Sonderheft - seit 1989 als eigenständiges Magazin - damals noch mit dem Schwerpunkt Unix. Im Laufe der Zeit erweiterte die Redaktion stetig ihr Themenspektrum. Schwerpunkt des IT-Magazins ist heute der unternehmensweite Einsatz von vernetzten Computern. Kritisch und herstellerunabhängig beleuchtet die 15-köpfige iX-Redaktion alle wegweisenden Entwicklungen im IT-Bereich, vom abhörsicheren Handy bis zu Cloud Computing. Zielgruppe sind sowohl IT-Leiter, Netzwerkadministratoren und Software-Entwickler als auch Systemverwalter und Vertriebsbeauftragte sowie Wissenschaftler.

Mit der eigenen Internet-Domain www.ix.de, die die Redaktion bereits 1991 registrierte, nahm die Redaktion schon früh eine Vorreiterrolle ein. iX sicherte sich eine der Web-Adressen mit zwei Buchstaben in Deutschland, von denen heute noch drei in Betrieb sind. Zur CeBIT 1994 präsentierte die iX-Redaktion einen der ersten WWW-Server. "Damit waren wir nicht nur in der Verlagslandschaft führend, sondern gehörten zu den ersten 1000 Websites weltweit", berichtet Chefredakteur Jürgen Seeger, der von Anfang an dabei ist und seit fast 20 Jahren die redaktionellen Inhalte verantwortet.

Mittlerweile hat die iX-Redaktion die Informationsvermittlung diversifiziert. So erscheinen regelmäßig Sonderhefte und Studien zu einzelnen Schwerpunkten wie jüngst zur Programmiersprache Java oder IT-Sicherheit. Seit vergangenem Jahr hat iX darüber hinaus sein Online-Angebot weiter ausgebaut. Die Themen-Site heise Developer bündelt alle wichtigen Nachrichten rund um die Software-Entwicklung.

Vor sechs Jahren gestartet, haben sich die iX-Konferenzen und -Workshops zu einem erfolgreichen Standbein entwickelt. Allein oder zusammen mit kompetenten Partnern veranstaltet die Redaktion jährlich rund 20 Events für IT-Professionals. Vom iX-CeBIT-Forum über Kerberos-Workhops bis hin zum IPv6-Kongress: Hochkarätige Referenten erörtern unterschiedliche IT-Problemstellungen, präsentieren praxisorientierte Lösungsansätze und laden zum Erfahrungsaustausch ein.

Talaris Central Europe: Bündelung der Ländergesellschaften schafft weitere Synergien

Neu-Isenburg/Niederwangen (ots) - Der führende Hersteller von Cash Management-Lösungen, Talaris, bündelt seine mitteleuropäischen Ländergesellschaften zur neuen Organisationseinheit Talaris Cash Systems Central Europe. Ingo M. Rübenach, bisher Geschäftsführer der Talaris Cash Systems (Germany) GmbH, ist zum Managing Director bestellt worden. Der amtierende Geschäftsführer der Talaris Cash Systems (Switzerland) AG, Rudolf Freunbichler, wird das Unternehmen zum 1. Juni 2009 verlassen und sich neuen beruflichen Aufgaben widmen.

Talaris fasst in der neuen Organisationseinheit Central Europe ab sofort sämtliche Aktivitäten in den zentraleuropäischen Märkten Deutschland, Liechtenstein und der Schweiz zusammen. Die Führungsmannschaften und die regionalen Einheiten in Vertrieb, Service und Support bleiben in der jetzigen Form bestehen. Damit wird die Kontinuität in den Beziehungen zu den Kunden in Deutschland und der Schweiz garantiert.

Für Ingo M. Rübenach ist die Umstrukturierung konsequent und im Sinne der Kunden von Talaris: "Der Neuzuschnitt der mitteleuropäischen Ländergesellschaften ist ein weiterer logischer Schritt bei der Umsetzung unserer Strategie zur Schaffung effizienter, länderübergreifender Strukturen. Damit profitieren unsere Kunden noch mehr von unseren unternehmensweiten Stärken. Wir erhalten so unsere schlagkräftige Vertriebs- und Serviceorganisation und minimieren den Verwaltungsaufwand in Märkten, die nicht nur geografisch, sondern auch sprachlich und kulturell nahe beieinander liegen. Der lokale Fokus unserer Kundenbetreuung bleibt davon aber unberührt."

Ein weiteres Ziel der Maßnahme liegt darin, die spezifischen Stärken beider Ländergesellschaften in die übergreifende Organisation einzubringen. Ingo M. Rübenach betont, dass die strategische Neuausrichtung keine Gewichtung zugunsten des einen oder anderen Standorts mit sich bringt: "Wir führen Kompetenzen zusammen. Davon werden alle Länder profitieren. Eine schlanke und schlagkräftige Organisation macht uns im Wettbewerb noch stärker. Damit sind Kunden und Mitarbeiter auf der Gewinnerseite", erklärte er abschließend. rw@giw.de

Das grausame Abschlachten von Robben in Kanada geht weiter

Ottawa (ots/PRNewswire) - Am Dienstag veröffentlichte Humane Society International (HSI)/Canada auf einer Pressekonferenz mit Senator Mac Harb - dem ersten kanadischen Parlamentarier, der eine Gesetzesvorlage zur Beendigung der Robbenjagd einbrachte - neues Filmmaterial (http://tinyurl.com/hsusseals) von der kommerziellen Robbenjagd 2009 in Kanada. Beobachter dokumentierten zahlreiche Fälle extremer Brutalität, zu denen auch offensichtliche Verletzungen der kanadischen Bestimmungen zu Meeressäugern (Marine Mammal Regulations) zählen.

"Die in diesem Jahr auf Video aufgezeichnete Brutalität belegt, dass das Abschlachten der Robben so brutal und unmenschlich wie eh und je abläuft", sagte Rebecca Aldworth, Leiterin von HSI Canada. "Wir haben gefilmt, wie im offenen Wasser mehrmals auf Robben geschossen wurde, wie Robben, als sie den Schmerz offensichtlich noch spüren konnten, aufgeschlitzt wurden. Wir filmten auf dem Eis zurückgelassene verletzte Robben sowie verwundete Tiere, die sich unter die Wasseroberfläche retten konnten, wo sie einen langsamen und schmerzhaften Tod starben. Es ist an der Zeit, dass die kanadische Regierung auf diese brutale Vorgehensweise reagiert, indem sie die Lizenzen für die Robbenjagd zurückkauft."

Tierärzte haben wiederholt betont, dass Kanadas kommerzielle Robbenjagd aufgrund der Umgebung, in der sie stattfindet und der Schnelligkeit, mit der die Tötung vorgenommen werden muss, von Grund auf inhuman ist.

"Trotz der grössten Anstrengungen kann die kanadische Regierung eine kommerzielle Tätigkeit, die unter solch gefährlichen Umständen in so kurzer Zeit durchgeführt wird, einfach nicht kontrollieren", sagte Senator Harb. "Dass die kommerzielle Jagd in einem so kurzen Zeitrahmen durchgeführt wird, bedeutet, dass sie niemals human und aufgrund der Kosten für die Jagd und der fehlenden Nachfrage nach luxuriösem Robbenpelz auch niemals rentabel sein wird. Ich habe die gefährlichen Umstände und schockierende Brutalität der Jagd mit meinen eigenen Augen gesehen. Die Mehrheit der kanadischen Bevölkerung möchte, dass die kommerzielle Robbenjagd für immer verboten wird."

Der enorme Widerstand gegen kommerzielles Robbenschlachten hat viele Länder in der ganzen Welt dazu bewegt, ihren Handel mit Robbenprodukten einzustellen. In Kanada sind die Pelzpreise dieses Jahr aufgrund der fehlenden Nachfrage auf 15 CAD gefallen. Seit 2006 ist der Pelzpreis in Kanada somit um 86 Prozent gefallen. Trotz beachtlicher Subventionen der Regierung macht die Robbenjagd weniger als eine Hälfte eines Prozents des Bruttoinlandsproduktes von Neufundland und Labrador und weniger als 2 Prozent der gesamten Einnahmen der Fischindustrie Neufundlands aus. Robbenfänger sind kommerzielle Fischer, die durschnittlich weit unter 5 Prozent ihres Jahreseinkommens mit der Robbentötung verdienen.

 

LED-Glühbirne verspricht lange Lebensdauer Mehr Licht als 60-Watt-Glühbirne bei nur 7,5 Watt Verbrauch

Fortuna, Kalifornien (pte) - Die kalifornische C. Crane Company http://www.ccrane.com hat mit der "GeoBulb LED" die laut Unternehmen erste LED-Birne vorgestellt, die auf eine Verwendungsdauer von zehn Jahren ausgelegt ist. Das Glühbirnen-förmige Modell passt direkt in normale Fassungen und verspricht eine deutlich höhere Energieeffizienz. Sie kann etwa so viel Licht wie eine herkömmliche 60-Watt-Glühbirne bei rund einem Achtel des Strombedarfs abgeben. Die LED-Birne soll eine höhere Energieeffizienz gerade für Endkunden einfach realisierbar machen und reiht sich im globalen Trend hin zu LED-Beleuchtung ein.

Für drei Jahre Dauerbetrieb oder rund zehn Jahre typischer Haushaltsnutzung ist die GeoBulb LED laut Hersteller geeignet. Außerdem verspricht sie mit nur 7,5 Watt Leistung ebenso viel Lichtausbeute, wie sie eine normale Glühlampe mit 60 Watt bietet. "Das ist die beste Glühbirne der Welt. Es ist die effizienteste und langlebigste", gibt sich Firmenpräsident Robert C Crane gegenüber dem kalifornischen Times-Standard überzeugt. Dadurch, dass die GeoBulb LED in normale Fassungen passt, soll sie es für Endkunden leicht machen, mehr Energieeffizienz im Haushalt zu erreichen. Denn damit fallen keine Montagekosten für spezielle Fassungen oder andere Elemente wie Solarpanelen an, heißt es seitens des Unternehmens. Dadurch soll sich die GeoBulb LED trotz einem eher stolzen Preis von knapp 120 Dollar lohnen.

An der Entwicklung der LED-Glühbirne wurde rund drei Jahre gearbeitet und man hoffe, dass sich andere Anbieter angespornt sehen, ebenfalls energieeffizientere Produkte zu schaffen, so C. Crane. Die Chancen dafür stehen gut, denn das Interesse an stromsparender LED-Beleuchtungslösungen ist groß. So hoffen beispielsweise britische Wissenschaftler, binnen fünf Jahren nicht nur hocheffiziente, sondern auch preisgünstige LEDs als Glühbirnen- und Energiesparlampen-Ersatz zu realisieren (Ende)

Längere Schulzeiten beugen Demenz vor - Gebildetere schneiden bei Tests deutlich besser ab

Cambridge (pte) - Ein längerer Schulbesuch könnte zu einem gewissen Grad die Anzahl der Demenz-Erkrankungen verringern. Ein Team der University of Cambridge http://www.cam.ac.uk hat die geistigen Fähigkeiten von älteren Menschen verglichen und ist zu dem Ergebnis gekommen, dass jene, die nach der Anhebung der Schulpflicht auf 15 Jahre geboren wurden, weniger oft von Demenz betroffen waren. Eine weitere Erhöhung des Alters in dem die Schule verlassen wird, könnte laut dem Team um David Llewellyn dazu beitragen, dass sich die geistigen Fähigkeiten weiter verbessern und die Anzahl der Erkrankungen weiter sinkt. Details der Studie wurden in dem Fachmagazin Aging, Neuropsychology and Cognition http://www.tandf.co.uk/journals/titles/13825585.asp veröffentlicht.

Rund 700.000 Menschen leiden laut BBC allein in Großbritannien an Demenz. Experten-Schätzungen gehen davon aus, dass diese Zahl bis 2051 bis auf 1,7 Millionen ansteigen könnte. Für die aktuelle Studie verglichen die Wissenschaftler eine Gruppe von 9.000 Menschen über 65 Jahren, die 1991 getestet worden waren mit mehr als 5.000 Gleichaltrigen, die 2002 getestet worden waren. Sie alle erhielten einen Standard-Test, der dazu dient, frühe Anzeichen von Demenz zu erkennen. Dazu gehört auch das Nennen von möglichst vielen Tiernamen innerhalb einer Minute. Die Wissenschaftler konnten einen kleinen aber bedeutenden Unterschied bei der zweiten Gruppe feststellen.

Frühere Studien haben bereits nachgewiesen, dass ein Mehr an Bildung von Vorteil ist, da die Anzahl der neuronalen Verbindungen im Gehirn zunimmt. 1947 wurde das Alter des Schulendes mit 15 Jahren festgelegt, 1972 wurde es in Großbritannien auf 16 erhöht. Die Regierung kündigte vor zwei Jahren an, dass ab 2015 Teenager bis zum 18. Lebensjahr in einer Form der Ausbildung bleiben müssen. Die Wissenschaftler sind davon überzeugt, dass das bessere Abschneiden der zweiten Gruppe in direktem Zusammenhang damit steht, dass sie länger zur Schule gegangen ist. Andere Faktoren wie weniger Herzanfälle, mehr Medikamente gegen hohen Blutdruck, weniger Rauchen und verbesserte Lebensbedingungen für Kleinkinder dürften bei den Jüngeren ebenfalls eine Rolle gespielt haben.

Tausende invasive Kröten in Australien getötet Kampf gegen eingeschleppte Riesen-Amphibien geht in neue Runde

Sydney (pte) - Tausende der giftigen Aga-Kröten, die in den 1930er-Jahren als Vernichter von Schädlingen nach Australien gebracht wurden, sind von der Bevölkerung in Queensland lebend gesammelt und anschließend auf "humane Weise" getötet worden. Der "Toad Day Out" wurde als Festtag begangen und wurde auch seitens lokaler Politiker unterstützt. Seit Jahren bemühen sich die Behörden darum, die riesigen Krötenbestände, die immer stärker zunehmen, einzudämmen. Die Tiere mussten zwecks Identifizierung lebend und unverletzt zu den Sammelstellen gebracht werden. Dabei sollte sichergestellt werden, dass keine Frösche dabei sind http://www.frogsnotcanetoads.com.au . Anschließend wurden sie eingefroren oder in Plastiktüten mit CO2 vergast, berichtet die Time http://www.time.com .

Angesichts der fehlenden Fressfeinde konnten sich die bis zu 26 Zentimeter langen und bis zu 2,5 Kilogramm schweren Aga-Kröten nach ihrer Einfuhr großräumig ausbreiten. Sie gewinnen jährlich 40 bis 50 Kilometer an zusätzlichem Terrain. Aus einigen tausend eingeführten Kröten, die zur biologischen Schädlingsbekämpfung auf den australischen Zuckerrohrplantagen dienen sollten, sind Schätzungen zufolge nunmehr über 100 Mio. Tiere geworden. In einigen Landesteilen zählen die Kröten gar zu den häufigsten Wirbeltierarten. Versuche, die Ausbreitung der Amphibien zu stoppen, sind bisher erfolglos geblieben. Die Aga-Kröten fressen praktisch alles, was kleiner ist als sie selbst - von Insekten, kleinen Reptilien, Säugetieren, andere Amphibien bis hin zu Vögeln. Jährlich produzieren die weiblichen Tiere 20.000 Eier.

Die Kröten sind aber auch eine Gesundheitsbedrohung, da sie zahlreiche Krankheiten übertragen können. Das Gift ist allerdings nur dann gefährlich für den Menschen, wenn es verschluckt wird. Der Politiker Shane Knuth aus Queensland, ein langjähriger Kämpfer gegen die invasive Krötenart, hatte den "Toad Day Out" ins Leben gerufen. "Da die Reproduktionsrate der Tiere so hoch ist, können ein paar tausend Tiere weniger das Ende von ein paar Millionen bedeuten", so Knuth. Die Karkassen der getöteten Tiere werden als Düngemittel für die Zuckerplantagen verwendet. Auch seitens der Royal "Society for the Prevention of Cruelty Against Animals" http://www.rspca.org.uk gab es Applaus zu dieser Aktion.

Für die australischen Politiker ist die Bekämpfung von invasiven Arten eine Notwendigkeit. Knuth will sogar soweit gehen, jedem, der eine lebende Aga-Kröte bringt, eine Kopfgeldprämie von 20 Cent auszuzahlen. Der "Toad Day Out" soll zu einer landesweiten Aktion ausgebaut werden, so der Politiker. Erst im Vorjahr haben Forscher der University of Sydney entdeckt, dass immer mehr Krokodile beim Verschlingen der Kröten an deren Gift sterben

 

 

GWA: Konjunkturelle Lage der Werbebranche stabil

Frankfurt am Main (ots) - Der Gesamtverband Kommunikationsagenturen GWA rechnet damit, dass sich die Umsätze der Werbebranche 2009 auf Vorjahresniveau bewegen werden. Die GWA Agenturen erwirtschafteten 2008 ein Plus von 5,5 Prozent.

Auch die Renditen sind 2009 stabil. Auf der Basis des GWA Frühjahrs-Monitors, sieht GWA Präsident Peter John Mahrenholz (Draftfcb Deutschland) keinen Grund zur Beunruhigung, beobachtet aber ein hohes Maß an Unsicherheit in der Werbebranche: "Es gibt einen deutlichen Unterschied zwischen Innen- und Außensicht. Die Agenturchefs äußern sich erheblich pessimistischer mit Blick auf die Branche als hinsichtlich der eigenen Agentur."

Trotz verhaltener Prognosen für 2009 rechnet der GWA für die Werbebranche nicht mit Stellenabbau. 63 Prozent der Agenturen wollen die Anzahl ihrer Beschäftigten auf dem Stand des Vorjahres halten, 19 Prozent planen, Personal auszubauen. Nach Angaben der GWA Agenturchefs planen ebenfalls 19 Prozent Personal abzubauen. In der vergangenen Wirtschaftskrise 2002/2003 hatten sich 70 Prozent der Agenturen von Mitarbeitern trennen müssen.

Bei 76 Prozent der Agenturen ist der Kostendruck weiter gestiegen und hat damit wieder den Höchstwert des Krisenjahres 2002 erreicht. 83 Prozent der GWA Agenturchefs erwarten, dass 2009 bezogen auf die Renditen schlechter verlaufen wird als 2008. Im Vorjahr lag dieser Wert noch bei 30 Prozent. Der GWA prognostiziert für 2009 eine Stagnation der Renditen.

Mahrenholz: "Wir rechnen 2009 bezogen auf Umsatz, Personal und Rendite nicht mit dramatischen Einbrüchen, aber auch nicht mit Zuwächsen. Die Krise hat die Werbebranche bis jetzt noch nicht mit voller Wucht erreicht. Agenturen bleiben wichtig um gerade in einer Krise Vertrauen, Konsum und Investitionen zu fördern." Der GWA Monitor ist eine Befragung der führenden deutschen Werbe- und Kommunikationsagenturen. Die Ergebnisse gelten für die Werbebranche als repräsentativ: Der GWA deckt über 80 Prozent des relevanten Agenturmarktes ab.

heise Foto mit umfangreicher Bildergalerie

Hannover - www.heisefoto.de , das Digitalfotografie-Magazin unter dem Dach von heise online, hat seit Ende Februar eine Galerie für seine Nutzer eingerichtet. Innerhalb der ersten zwei Wochen haben sich bereits über 1700 Nutzer angemeldet und mehr als 7000 Fotos hochgeladen.

Angemeldete Nutzer können nicht nur in den Artikel- und News-Foren über neueste Trends in der Digitalfotografie fachsimpeln, sondern nun auch eigene Bilder veröffentlichen, bewerten, diskutieren und in Alben sammeln. Der kostenfreie Dienst setzt der Anzahl der hochgeladenen Bilder dabei keine Grenzen, lediglich die Größe einer einzelnen Datei ist auf 10 MByte beschränkt. Besonders gelungene Werke können zum "Bild des Tages" avancieren und werden auf der Galerie-Startseite hervorgehoben.

Im Unterschied zu anderen Communities kann der Anwender auch Bilder anderer Galerie-Nutzer in seine Alben einsortieren, etwa um ein spezielles Themengebiet abgerundet zu präsentieren. Besonders wichtig ist der Redaktion der "Creative Commons"-Gedanke: Mit einer entsprechenden Lizenz hochgeladene Bilder dürfen von anderen Nutzern frei und in voller Auflösung weiterverwendet werden. Die gesamte Galerie lässt sich nach Stichwörtern in Bildern und Alben, nach Benutzern, aber auch nach Farbähnlichkeiten durchsuchen.

"Die Qualität der eingestellten Fotos kann sich wirklich sehen lassen", freut sich Christian Persson, Chefredakteur von c't und heise Foto: Von verblüffenden Makro-Aufnahmen über coole Architekturabbildungen und Studio-Arbeiten bis hin zu beeindruckenden Schwarzweiß-Studien reicht die Spanne der Bilder. Bis zum 10. Mai verlost heise Foto wöchentlich einen Apple iPod Touch in der aktuellen 16-GByte-Version unter allen neu angemeldeten Galerie-Anwendern, die eigene Fotos hochgeladen haben.

heise Foto, das Online-Magazin rund ums digitale Bild, liefert News, Grundlagen, Testberichte, Praxis-Tipps und Produktdaten zu den Themen Kameras, Zubehör, Bildverarbeitung und Gestaltung - gleichermaßen für engagierte Foto-Amateure und Profis.

Hunderte identische polare Tierarten entdeckt Census of Marine Life geht in Schlussphase

Bremerhaven/Fairbanks (pte) - Internationale Wissenschaftsteams haben in den Gewässern des Südpols und des Nordpols hunderte identische Arten entdeckt. Trotz der 11.000 Kilometer großen Distanz zwischen den beiden Polen konnten nach ersten Schätzungen 235 mehrzellige Tierarten gefunden werden, die in beiden Regionen vorkommen. In der "Synthesephase" des Census of Marine Life http://www.coml.org , das 2010 auslaufen wird, werden intensive Vergleiche zwischen den beiden polaren Ozeanen gemacht.

"Eigentlich ist das eine wissenschaftliche Sensation", meint Julian Gutt, Experte für Antarktis-Forschung am Alfred-Wegener-Institut http://www.awi.de im pressetext-Interview. Vergleiche man etwa die Evolution der Darwin-Finken auf den engen Raum der Galapagos-Inseln miteinander, ist das eine immense Entfernung von Pol zu Pol. "Dabei reicht die Artenanzahl von Wirbellosen bis hin zu Walen und Seevögeln", erklärt der Wissenschaftler. Eine endgültige Bewertung, wie viele Arten es in beiden Regionen gibt, könne man derzeit allerdings noch nicht abgeben, meint Gutt. Genetische Analysen könnten diese Zahl sowohl deutlich nach oben, aber auch etwas nach unten bewegen.

Untersucht wird im Zuge des Census of Marine Life auch die Biodiversität der beiden Regionen. "Die Arktis, deren Biodiversität etwas niedriger ist, ist wesentlich besser und genauer untersucht", meint Rolf Gradinger von der University of Alaska in Fairbanks http://www.uaf.edu gegenüber pressetext. "Mit dem Plankton beträgt die Zahl der Arten in der Antarktis etwa 25.000", meint Gutt. In der Arktis komme man ungefähr auf die Hälfte. "In der Tiefsee leben vergleichsweise etwa eine bis neun Mio. Arten, am Korallenriff etwa eine Mio., wobei nur 300.000 bekannt sind. Wie man anhand der Zahlen sieht, sind die Unsicherheiten sehr groß." Gründe, warum in der Antarktis die Biodiversität höher ist, liegen unter anderem im historischen Wechsel zwischen Eis- und Warmzeiten. Diese Tatsache erhöhe die Artenvielfalt.

Beide Forscher warnen hingegen vor den Folgen der Klimaveränderungen und damit auch auf die Auswirkungen auf die Biodiversität. "Während in der Antarktis die Luft in einzelnen Teilen deutlich über dem globalen Durchschnitt steigen, bleibt die Erwärmung generell ein regionales Phänomen", so Gutt. Eines der Schlüsselerlebnisse sei allerdings der Rückgang des antarktischen Krills um 40 bis 80 Prozent. Der Krill spiele in der Nahrungskette der Antarktis eine wesentliche Rolle. "Einen dramatischen Wandel konnten wir auch am Schelfeis feststellen, wo 16.000 Quadratkilometer Eis bereits abgebrochen sind." Für das dortige Leben sei das eine Katastrophe, aber die Fläche entspreche glücklicherweise zur Zeit nur einem Prozent der gesamten Schelfeisfläche, meint der Wissenschaftler.

"Die Veränderung in der Arktis ist hingegen wesentlich stärker, denn die polaren arktischen Arten werden von subpolaren verdrängt", erklärt Gradinger. Das sei deswegen bedrohlich, weil der Nahrungswert der pelagischen Krebse, die eine ähnliche Rolle wie der Krill spielen, aufgrund geringerer Lipidwerte deutlich geringer ist. "Das heißt in der Nahrungskette steht eine geringere Qualität zur Verfügung." Ein weiteres Phänomen sei die Ausbreitung von pazifischen Arten Richtung Norden vor der amerikanischen Küste. "So breitet sich der amerikanische Lachs und auch die Snow-Crab immer weiter nach Norden hin aus und verändern die Struktur des Systems." Das habe auch Auswirkungen für die kommerzielle Fischerei, erklärt der Wissenschaftler abschließend im pressetext-Interview.

Unerschöpfliche Quelle für Nervenzellen erzeugt Vielversprechende Forschungsergebnisse im Mäuseversuch

Bonn (pte) - Einem Forscherteam der Universität Bonn ist es gelungen, aus menschlichen embryonalen Stammzellen so genannte Gehirnstammzellen herzustellen, die als unerschöpfliche Quelle für verschiedene Nervenzelltypen dienen. In Mäuseversuchen konnten die Forscher zeigen, dass sich diese Nervenzellen in die Schaltkreise eines Gehirns integrieren können. Über ihre Entdeckungen berichten die Forscher in der jüngsten Ausgabe des Wissenschaftsmagazins Proceedings of the National Academy of Sciences (PNAS).

Mit den neuen Zellen können die Forscher auch den Bedarf an embryonalen Stammzellen reduzieren, die bisher für jedes einzelne Zellgewinnungsverfahren als Ausgangsmaterial eingesetzt werden mussten. "Die Gehirnstammzellen funktionieren wie eine unerschöpfliche Quelle. Sie liefert über Monate und Jahre menschliche Nervenzellen, ohne dass wir dafür weiter auf embryonale Stammzellen zurückgreifen müssten", so Oliver Brüstle, Leiter des Forscherteams am Institut für Rekonstruktive Neurobiologie der Universität Bonn http://www.uni-bonn.de .

Im Tierexperiment konnten die Forscher nachweisen, dass die künstlich gewonnenen Nervenzellen auch funktionieren. Nach der Transplantation in das Gehirn von Mäusen haben die Zellen Kontakt mit dem Empfängergehirn aufgenommen. Die Zellen konnten dann sowohl Signale senden als auch empfangen. "Das ist der erste direkte Beweis, dass sich Nervenzellen aus menschlichen Stammzellen in die Schaltkreise eines Gehirns integrieren können", erklärt Studien-Erstautor Philipp Koch. Den funktionellen Nachweis der Zellen untersuchte Thoralf Opitz. Die nahezu unerschöpfliche Zellquelle soll auch dazu eingesetzt werden, neurodegenerative Erkrankungen und mögliche Wirkstoffe direkt an menschlichen Nervenzellen zu studieren. Das Forscherteam um Brüstle war das erste in Deutschland, das eine Bewilligung zum Import humaner embryonaler Stammzellen erhalten hat.

Die Stammzellenforschung steht seit einigen Jahren im Brennpunkt des öffentlichen Interesses. Auf der einen Seite stand die Verwendung von embryonalen Stammzellen als Alleskönner mit uneingeschränktem Entwicklungspotenzial, die von einigen Gruppen massiv bekämpft wurde. Auf der anderen Seite waren die so genannten somatischen Stammzellen, die sich auch aus Gewebe von Erwachsenen gewinnen lassen, aber nur begrenzt vermehrungs- und entwicklungsfähig sind. Den Bonner Forschern ist es nun gelungen, diese beiden Welten zusammenzuführen, indem aus menschlichen embryonalen Stammzellen Gehirnstammzellen hergestellt haben. Aus den stabilen Zelllinien konnten die Wissenschaftler im Labor dann kontinuierlich verschiedene Sorten menschlicher Nervenzellen gewinnen. Darunter waren beispielsweise auch solche, wie sie bei der Parkinsonschen Erkrankung ausfallen.

Pflanzen kommunizieren durch Elektrosignale
Reaktion auf Umweltreize bereits nach zwei Sekunden messbar

Bonn (pte) - Vergleichbar mit Quallen und Würmern, kommunizieren auch Pflanzenzellen durch elektrische Signale. Diese Widerlegung der Annahme der Botanik, dass Pflanzenzellen ausschließlich durch chemische Signale kommunizieren, liefert eine Studie der Universitäten Florenz und Bonn. Die Biologen untersuchten die Wurzelspitze von Mais und konnten elektrische Signale nachweisen, die über pflanzliche Synapsen schnell von Zelle zu Zelle weiter geleitet werden. Das berichtet das Online-Wissenschaftsjournal Proceedings of the National Academy of Sciences. "Pflanzen nehmen Veränderungen ihrer Umwelt sehr aktiv wahr und müssen diese Informationen auch integrieren. Das könnte in der Wurzelspitze geschehen, die wie ein Kommandozentrum agiert", erklärt der Biologe Frantisek Baluska vom Institut für zelluläre und molekulare Botanik der Universität Bonn http://izmb.de/zellbio gegenüber pressetext.

Wurzeln können besonders schnell auf Lageänderungen reagieren. Dazu scannen sie den Boden ständig nach über 20 Parametern wie Verfügbarkeit von Wasser oder Nährstoffen, Temperaturwechsel oder Licht. Über Aktionspotenziale erfolgt die Weitergabe der Reize. Stefano Mancuso, Frantiseks Kollege aus Florenz, erbrachte den Nachweis, dass die Reaktion der Pflanze bereits zwei Sekunden nach einer Wahrnehmung erfolgt. Das ermögliche ihr, schnell auf toxische Substanzen im Boden zu reagieren, Wachstumssignale an anderer Stelle zu aktivieren und somit schnell ihre Wuchsrichtung zu ändern. Der Mais besitzt für diese Aufgabe Schwerkraftsensoren in der Wurzelhaube, dessen Signale zu entsprechend geänderter Wuchsrichtung führen. "Würde die Kommunikation zwischen Wachstumszone und Schwerkraftsensor nur hormonell und nicht auch elektrisch geschehen, so würde die Reaktion erst viel später erfolgen", so Baluska.

Dass Pflanzen Aktionspotenziale bilden und in ihrer Wurzelspitze sensorisch-motorische Kopplungen besitzen, wusste bereits Charles Darwin. 1880 stellte er gemeinsam mit seinem Sohn Francis fest. "Es ist kaum übertrieben zu behaupten, dass sich die Spitze der Keimwurzel wie das Gehirn eines der niederen Tiere verhält. Das Gehirn im vorderen Teil des Körpers empfängt Informationen der Sinnesorgane und steuert mehrere Bewegungen", schloss der britische Naturforscher sein Werk "The Power of Movement of Plants". Ganz im Gegensatz zu dieser Ansicht setzte sich jedoch nach Entdeckung der Pflanzenhormone in den 1920er Jahren nach längerem Wissenschaftsstreit der chemische Signalweg als Mainstream der Biologie durch. "Seit den 70er-Jahren gab es kaum mehr elektrophysiologische Forschungen, da niemand annahm, dass Pflanzen so schnelle Signale brauchen", erklärt Baluska. Warum das jedoch doch der Fall ist, bleibe weiterhin ein Rätsel.

Computer lernen Emotionen zu erkennen
Algorithmen und Methoden aus Spracherkennung als Vorbild

Stuttgart (pte) - Neben dem direkten Inhalt der gesagten Worte vermittelt die menschliche Sprache dadurch, wie etwas gesagt wird, implizit auch Emotionen. Computersysteme zur automatischen Spracherkennung können bislang aber nur den expliziten Sinninhalt verstehen und somit nicht die gesamte Information verwerten, die das gesprochene Wort transportiert. Doch Wissenschaftler am Lehrstuhl für Systemtheorie und Signalverarbeitung (LSS) http://www.lss.uni-stuttgart.de der Universität Stuttgart arbeiten daran, Sprachcomputern auch das Erkennen von Gemütsbewegungen beizubringen. Die normale Spracherkennung ist Vorbild bei Algorithmen und Methoden. "Die mathematischen Ansätze sind sehr ähnlich", meint LSS-Leiter Bin Yang im Gespräch mit pressetext.

Während schon seit Jahrzehnten an der Spracherkennung linguistischer Inhalte geforscht wird, arbeitet der LSS auf einem relativ jungen Gebiet. Computer sollen lernen, auch nicht direkt in Worte gefasste Inhalte der Sprache zu erkennen, sogenannte "paralinguistische Eigenschaften". Dazu zählen neben Emotionen wie Angst oder Wut auch Stress, medizinische Auffälligkeiten in der Stimmgebung oder auch Alter und Geschlecht eines Sprechers sowie der Dialekt als Zeichen der regionalen Herkunft. Die Stuttgarter setzen zur Emotionserkennung auf Algorithmen, die jenen aus der Spracherkennung ähneln. Genutzt werden lernende Verfahren unter Verzicht auf festgelegte Regeln, so Yang. Das Erkennungssystem wird mithilfe einer geeigneten Beispieldatenbank trainiert.

Eine Herausforderung ist, dass in der Spracherkennung bewährte Merkmale zur Analyse von Sprachdaten für die Emotionserkennung nach Erkenntnissen der LSS-Forscher nur bedingt geeignet sind. Denn für die Spracherkennung sind phonetische Informationen wichtig, wie beispielsweise die charakteristischen Resonanzfrequenzen von Vokalen. "Wir müssen hingegen praktisch hinter den Vokaltrakt schauen", meint Yang. Denn der emotionale Zustand des Sprechers spiegle sich eher in der Anregung der Stimmlippen wieder. Paralinguistische Informationen verstecken sich somit an anderen Stellen des Sprachsignals als solche, die für die Spracherkennung relevant sind. Dementsprechend intensive Forschungsarbeiten sind daher noch nötig, ehe eine automatische Emotionserkennung wirklich praxistauglich wird.

Das Interesse am Thema ist international groß und das nicht nur an Forschungseinrichtungen. Es gäbe Call Center, die bereits mit Emotionserkennung experimentieren, so Yang. Neben Anwendungen im medizinischen Bereich wären beispielsweise auch Fahrerassistenzsysteme denkbar, die erkennen, ob ein Fahrer im Stress ist. Auch die klassische Spracherkennung könnte profitieren, da beispielsweise Schimpfworte oft mit bestimmten emotionalen Färbungen verbunden sind. Die Erkenntnisse aus der Emotionserkennung sollen aber durch Umkehr auch dazu beitragen, die synthetisierte Spracheausgabe zu verbessern. "Viele Leute beschweren sich, dass beispielsweise Navigationscomputer viel zu trocken sprechen", sagt Yang. Emotionaler gestaltete Computerstimmen könnten diesbezüglich Abhilfe schaffen.

Internet sagt Weltuntergang für 2012 voraus

New York (pte/31.01.2009/06:05) - Wer gegenwärtig die Jahreszahl "2012" in einer Internet-Suchmaschine eintippt, erhält eine Auflistung einer fast unüberschaubaren Zahl von Webseiten, die sich mit dem Thema Weltuntergang beschäftigen. Verantwortlich hierfür ist der im Web und durch verschiedene Buchveröffentlichungen verbreitete Glauben vieler Erdenbürger, dass am 21. Dezember 2012 das Ende der Welt bevorsteht. Genau um Mitternacht springt nämlich in der Zeitrechnung der einstigen Maya-Hochkultur Südamerikas der Kalender zum ersten Mal seit mehr als 5.000 Jahren wieder auf null. Am darauf folgenden Tag wird die Sonne dann bei der Wintersonnenwende im Zentrum unserer Galaxis stehen. Obwohl von Expertenseite bereits des öfteren darauf hingewiesen wurde, dass der Glaube an den Weltuntergang an diesem Tag auf keinerlei wissenschaftlich beweisbaren Fakten beruht, steigt die Zahl der weltweit verstreuten Anhänger der umstrittenen Theorie stetig an.

"Solche Weltuntergangstheorien sind für die Menschen im Grunde genommen immer eine Möglichkeit, sich von den aktuellen Problemen ihres Alltags abzulenken", stellt Peter Vitouch, Medienpsychologe und Professor am Institut für Publizistik- und Kommunikationswissenschaft der Universität Wien http://www.univie.ac.at/Publizistik , im Gespräch mit pressetext fest. Im Zeitalter des Internets könnten sich derartige Thesen wesentlich stärker und schneller verbreiten als noch vor einigen Jahren. "Die meiste Aufmerksamkeit kann heute sicherlich im Web erregt werden. Im Internet können sich zudem all diejenigen Leute, die sich für diese Theorien interessieren, viel effizienter vernetzen und so ihre weitere Distribution ankurbeln", betont Vitouch. Davon, dass es aufgrund der rasanten Verbreitung der Weltuntergangstheorie gleich zu einer weltweiten Massenhysterie kommen wird, geht der Medienpsychologe allerdings nicht aus. "Solche Theorien sind nicht neu. Zu Nestroys Zeiten hatten die Menschen Angst vor Kometen, zur Jahrtausendwende befürchteten sie den Zusammensturz der Computersysteme und jetzt wird der Maya-Kalender als brauchbares Motiv für das Ende der Welt herangezogen", so Vitouch.

Das Datum des 21. Dezember 2012 fasziniert die Gelehrten bereits seit der Wiederentdeckung der Zeitrechnung der Maya vor etwa einhundert Jahren. Vor allem die spezifische Position, mit der sich die Sonne an diesem Tag in die Gestirne einreiht, war immer wieder Anlass für verschiedenste wilde Theorien, die inhaltlich vom endgültigen Untergang der Welt bis zur Ankunft eines "kosmischen Besuchs" reichen. Trotz der großen Bedeutung, die dieses Datum sicherlich für die Astronomie innehat, gilt der Weltuntergangs-Zusammenhang bis heute als nicht eindeutig nachgewiesen. "Ich glaube, dass die mittlerweile sehr populären Behauptungen über die Maya-Prophezeiungen zum Jahr 2012 auf Grundlage einer äußerst dürftigen Beweislage konstruiert worden sind", meint Anthony Aveni, Professor für Astronomie, Anthropologie und Native American Studies an der Colgate University http://www.colgate.edu im US-Bundesstaat New York, gegenüber CNN. Aufgrund der enormen Anhängerschaft, die diese Theorie inzwischen gewonnen habe, sei zu befürchten, dass die wahre Bedeutung des Maya-Kalenders in der Öffentlichkeit in den Hintergrund gedrängt werde.

Blendende Aussichten für billigere LEDs

Cambridge (pte/31.01.2009/13:40) - Die Verwendung von LEDs zur Beleuchtung hat das Potenzial, die Stromkosten für Haushalte drastisch zu reduzieren. Bislang haben aber hohe Fertigungskosten eine umfassende Verbreitung von LEDs aus Galliumnitrid (GaN) verhindert. Jetzt allerdings ist es Forschern der britischen Cambridge University http://www.cam.ac.uk gelungen, dieses Material deutlich billiger zu fertigen. Dadurch könnten die Kosten der LEDs auf rund ein Zehntel sinken. Innerhalb von fünf Jahren könnten billige, massengefertige LEDs verfügbar werden, so das projektfinanzierende Engineering and Physical Sciences Research Council http://www.epsrc.ac.uk . "Das könnte den Heiligen Gral in Sachen Beleuchtung der Zukunft darstellen", meint Forschungsleiter Colin Humphreys. Sowohl Umwelt als auch Konsumenten würden massiv profitieren.

"Wir stehen kurz davor, hocheffiziente, preisgünstige Weißlicht-LEDs zu realisieren, die traditionelle Glühbirnen und Energiesparlampen ersetzen können", sagt Humphreys. Denn statt wie bisher Galliumnitrid-LEDs auf kleinen, teuren Saphir-Wafern zu züchten, ist den Forschern eine Herstellung mithilfe größerer und billigerer Silizium-Wafer gelungen. So können neun Mal mehr LEDs gleichzeitig erzeugt werden und auch die Ausfallrate in der Produktion sinkt. Durch das Zusammenspiel all dieser Faktoren wird eine Kostenreduktion um einen Faktor zehn möglich. Ein geringerer Preis würde in der Praxis die Annahme der Beleuchtungs-Alternative fördern.

Eine großflächige Umstellung sämtlicher Beleuchtungssysteme in Eigenheimen und Büros hätte massive Auswirkungen, so das EPSRC. Der Beleuchtungs-Anteil am gesamten Stromverbrauch des Vereinigten Königreichs würde etwa von 20 auf fünf Prozent sinken. Dadurch könnte auf acht Kraftwerke verzichtet werden. Der Umstieg wäre nicht nur gut für die Umwelt, betont Humphreys. "Auch die Konsumenten werden durch niedrigere Stromkosten profitieren", so der Wissenschaftler. Für den einzelnen Haushalt könnte die Stromrechnung für die Beleuchtung um bis zu drei Viertel niedriger ausfallen.

Galliumnitrid-LEDs leuchten an sich grün oder blau, ergeben aber in Verbindung mit einer Phosphorschicht eine sehr energieeffiziente Weißlichtquelle. Sie haben eine Lebensdauer von etwa 100.000 Stunden. Im Gegensatz zu Energiesparlampen kommen sie ohne Quecksilber aus und sind zum Dimmen geeignet. In Großbritannien werden GaN-LEDs bereits zur Beleuchtung von Sehenswürdigkeiten einsetzt, beispielsweise beim Buckingham Palace oder der Severn Bridge zwischen Südengland und Südwales. Unter Beigabe anderer Elemente wie Aluminium sind auch Ultraviolett-LEDs realisierbar, die beispielsweise zur Wasseraufbereitung und im Kampf gegen Krankheitserreger genutzt werden können.

LEDs werden verbreitet als vielversprechende Beleuchtungslösung für die Zukunft gehandelt und erhalten entsprechende Aufmerksamkeit von Wissenschaftler. Erst vor rund zwei Wochen beispielsweise haben US-Forscher gezeigt, wie sie die Energieeffizienz von LEDs aus Galliumindiumnitrid deutlich verbessern können  

Schweizer vermuten geschlechtsspezifische Geruchsunterschiede

London/Genf (pte/30.01.2009/16:47) - Kleine Mädchen mögen zwar im Song nach "Sugar and Spice" duften, in Wirklichkeit haftet ihnen allerdings der Geruch von Zwiebeln an. Das haben Forscher des schweizerischen Unternehmens Firmenich http://www.firmenich.com festgestellt. Der Achselschweiß von Männern hingegen scheint aromamäßig eher beim Käse angesiedelt zu sein, berichten die Forscher im Wissenschaftsmagazin New Scientist Online.

Die relativ klein angelegte Studie an 24 Männern und 25 Frauen nach dem Saunabesuch bzw. nach dem Training am Fahrrad zeigte dieses Ergebnis deutlich. Das Forscherteam um Christian Starkenmann, Experten für Geruchs- und Aromastoffe, konnte unter den Achselhöhlen von Frauen einen relativ hohen Gehalt einer schwefeligen aber geruchslosen Flüssigkeit ausmachen. Im Vergleich zu den Männern lag das Verhältnis fünf Milligramm zu 0,5 Milligramm. Im Labortest wurde diese Flüssigkeit mit Bakterien, die in dieser Körperregion häufig vorkommen zusammengemischt. Das Ergebnis war ein Thiol, dessen Geruch dem von Zwiebel entsprach.

"Je mehr vom schwefeligen Vorprodukt wir den Bakterien zusetzten, desto schlimmer wurde der Geruch", so Starkenmann. Bakterielle Enzyme verändern den sonst geruchlosen Stoff in Gestank. Bei den Männern hingegen fanden die Forscher einen relativ hohen Gehalt einer geruchslosen Fettsäure, die mit den Bakterien vermischt einen käsigen Geruch ergaben. Einer Expertise unabhängiger Geruchsforschern zufolge, wurde der Zwiebelgeruch als deutlich unangenehmer beschrieben als der käsige.

Mit der Untersuchung wollen die Schweizer Forscher eine neue Generation von Deodorants entwickeln. "Man könnte entweder die Inhibitoren neutralisieren oder die bakteriellen Enzyme blockieren, die den Gestank erzeugen", zeigt sich der Wissenschaftler überzeugt. Auf Zustimmung stoßen die Schweizer Untersuchungen aber nicht überall. Geruchsexperte Tim Jacob von der University of Cardiff http://www.cf.ac.uk meint, dass die geschlechtsspezifischen Unterschiede nicht der Schlüsselfaktor sind. Die Geruchskomponenenten, die bei den Schweizerinnen und Schweizern gefunden wurden, könnten regionalspezifisch sein. "Andere Faktoren sind auch die Ernährung, mit welchen Seifen man sich wäscht und welchen genetischen Hintergrund jemand hat", so Jacob.

 

 

17.01.2007

Verleger in eigener Sache:
Begegnung mit einer farbigen Vergangenheit

colour-europe.de 17.01.2007. Kürzlich mailte mir meine Tochter: "In unserem Urlaub waren wir auch im Nürnberger Eisenbahnmuseum. In der ersten Etage haben sie einen großen Mitmach-Bereich und mehrere Modelleisenbahn-anlagen. Auf einer wird die Geschichte der Eisenbahn an einer exemplarischen Landschaft, die in mehreren Abschnit-ten im Wandel der Zeit dargestellt ist, gezeigt. Und was glaubst Du, was wir da auf einem Güterzug der Neuzeit entdeckt haben? Anbei das Foto."

Das Foto erinnert an die Zeit des Image-Transfers von Wiederhold zu ICI Paints. Es wirft ein Schlaglicht auf eine farbige Vergangenheit, die heute nur noch für wenige Fachleute interessant ist. Wiederhold, das war so etwas wie eine Denkfabrik für entwicklungsbesessene Lackchemiker und -Ingenieure, die mehr oder weniger frei von wirtschaftlichen Zwängen auf den unterschiedlichsten Fachgebieten tätig waren. Sie entwickelten vom Bobinenlack für die Mundstücke von FilterZigaretten so gut wie jede Spezialität bis hin zur PUR-Beschichtung hyperparabolischer Dachkonstruktionen. In einem Unternehmen, das mit einem Markenartikel (Ducolux) groß geworden war, dank des Faibles der Inhaberin zur größten Möbellack-Fabrik Deutschlands mutierte. Lackgeschichte, die heute allenfalls noch Modellbauer interessiert. Einer davon schickte mir diese Aufnahme einer Straßenbahn von 1969, die er originalgetreu für ein Museum in Offenbach/Main nachbilden will. fma

Die Firma und ihre Hauptmarken Zusammenfassendes Beispiel aus der Werbung der Hermann Wiederhold KG etwa 1972. Mit der Bautenlack-Marke Ducolux (in Lizenz der Duco AG, Bergkamen,  einer Tochtergesellschaft der Schering AG, Berlin) war die Firma in den Nachkriegsjahren zum Großbetrieb gewachsen. In Den 1970er Jahren wurden 2.400 beschäftigt, der Umsatz lag bei etwa 250 Mio. DM.