Similar ebooks

Studienarbeit aus dem Jahr 2008 im Fachbereich Geowissenschaften / Geographie - Kartographie, Geodäsie, Geoinformationswissenschaften, Note: 2,0, Technische Universität Bergakademie Freiberg (Institut für Markscheidewesen und Geodäsie), Sprache: Deutsch, Abstract: Die Erde aus dem Weltall sehen oder jeden Ort der Welt anfliegen und aus der Luft beobachten, all dies ist heutzutage, zumindest virtuell, für die Nutzer von Satelliten Software oder so genannten Earth Viewern (Erd Beobachtern) möglich. In dieser Beziehung hat sich in den letzten Jahren einiges getan. Spätestens seit der Veröffentlichung von Google Earth im Jahre 2005 begann ein regelrechter Wettlauf in Sachen Erdbeobachtungssoftware. Die Geoinformationsbranche wurde für die Masse zugänglich gemacht und entwickelt sich seitdem mit sehr hoher Geschwindigkeit. Geodaten können nun von jedem und von überall her über das Internet kostenlos genutzt werden. Innerhalb kürzester Zeit schritt die Entwicklung von verschiedenen Systemen voran, so dass es heute eine Vielzahl von Anbietern solcher Earth Viewer gibt. Ob Client Systeme oder Web Mapping Systeme, die unterschiedlichen Systeme bieten jede Menge Möglichkeiten für die verschiedensten Anwendungen. Im Internet werden viele verschiedene Earth Viewer kostenlos angeboten und die Entwicklung geht ständig weiter. Die wohl bekanntesten dieser Earth Viewer sind Google Earth, NASA World Wind und Microsoft Virtual Earth. Alle drei haben etwas gemeinsam, sie bieten Bilddaten der Erde an und ermöglichen es dem Nutzer per Mausklick auf dem virtuellen Globus zu navigieren und somit jeden Ort der Welt zu erkunden, sofern es die Auflösung der Bilddaten zulässt. Sie bieten ihren Nutzern Informationen mit einem Ortsbezug, so genannte Geoinformationen. Aber jeder dieser Earth Viewer bietet verschiedene Funktionen und Datengrundlagen und es lassen sich unterschiedliche Anwendungen mit jedem von ihnen durchführen, so dass es gewisse Unterschiede zwischen ihnen gibt. Im Rahmen dieser Studienarbeit sollen Google Earth, NASA World Wind und Microsoft Virtual Earth miteinander verglichen werden. Dabei wird auf die Datengrundlage, die verschiedensten Funktionen und die Anwendungsmöglichkeiten der einzelnen Earth Viewer eingegangen. Die einzelnen Funktionen werden zunächst beschrieben und einige davon später praktisch angewandt, so dass ein direkter Vergleich zustande kommt.
Inhaltsangabe:Einleitung: Mitte der siebziger Jahre begann die Entwicklung von Satellitennavigationssystemen. Insbesondere hat sich das NAVSTAR GPS (NAVigation System with Timing and Ranging Global Positioning System) des amerikanischen Department of Defense (DOD) etabliert und findet in vielen Bereichen Anwendung. Auch heute noch öffnet es neue Möglichkeiten der Nutzung, und längst ist das ursprünglich für das Militär gedachte System auch im zivilen Umfeld nicht mehr wegzudenken. GPS hat sich im Laufe der Jahre zu einer Schlüsseltechnologie entwickelt, und in der Geodäsie ist die Navigation als auch die Positionsbestimmung mit Satellitennavigationssystemen fester Bestandteil der praktischen Arbeit. So werden in der Landvermessung über große Entfernungen wirtschaftlich und hoch genau Positionen bestimmt. Zur Navigation wird GPS im Automobil-, Flugzeug- und Schiffsverkehr genutzt. Neben den USA hat die damalige UDSSR das sogenannte GLONASS (GLObal naya Navigatsionannaya Sputnikovaya Sistema) entwickelt. Aufgrund der eingetretenen politischen Veränderungen und bedingt durch finanzielle Schwierigkeiten spielt GLONASS heute nur eine untergeordnete Rolle. Zur Positionsbestimmung werden die Satellitensignale ausgewertet, wobei grundsätzlich zwei Arten von Signalen unterschieden werden [vgl. hierzu Seeber (1989), Abschnitt. 7.1.4], nämlich das Codesignal (1-1a) und das Phasensignal . (1-1b). Vom Prinzip her liefert die Auswertung der Signale die Entfernungen zwischen Satelliten und Empfänger, die so genannte Pseudoentfernungen. Diese Pseudoentfernungen sind kein geradliniger Abstände, da die Signale (1-1) auf ihrem Weg vom Satelliten zum Empfänger verschiedenen Einflüssen unterworfen sind. Nach Wanninger (1994) wird nachstehender Fehlerhaushalt aufgestellt, wobei mit den numerischen Beträgen der Einfluss auf die Pseudodistanz angegeben ist. - Satellitenbahn: 10 100m (1-2a). - Satellitenuhr: 10 100m (1-2b). - Ionosphäre: 2 100m (1-2c). - Troposphäre: 0,1 1m (1-2d). - Mehrwegeeffekte: mehrere Meter (1-2e). - Phasenzentrum der Antenne: = 0,02m (1-2f). - Empfängerrauschen: 1 3m . (1-2g). Durch die genannten Fehler (1-2) wird die Position etwa um den Faktor zwei bis vier verschlechtert. Zur Verringerung bzw. Elimination der Fehler (1-2a-d) werden insbesondere folgende Verfahren angwand: - DGPS (Differenzielles GPS): Es werden Pseudostreckenkorrekturen für eine Referenzstation berechnet und dem Nutzer direkt zur Verfügung gestellt. Die [...]
Bachelorarbeit aus dem Jahr 2011 im Fachbereich Energiewissenschaften, Note: 1,0, Karlsruher Institut für Technologie (KIT) (IIP), Sprache: Deutsch, Abstract: In dieser Arbeit wird eine Analyse der Einflussfaktoren auf die Wirtschaftlichkeit von Geschäftsmodellen mit Batterie-Wechselstationen vorgenommen. Neben einer Prognose der Entwicklung der wichtigsten mikroökonomischen Einflussfaktoren für die nächsten zehn Jahre werden ausgewählte Geschäftsmodelle mit einem starken Pra-xisbezug untersucht. Je ein Geschäftsmodell ist für den Öffentlichen Personen-Nahverkehr (ÖPNV), eines für Firmenflotten und eines für private Pkw. Der wirtschaftliche Betrieb einer Batterie-Wechselstation im Busverkehr des ÖPNV ist ab sofort möglich. Die Wirtschaftlichkeit dieser Investition ist robust gegenüber einer Ver-änderung der Umweltfaktoren. Um eine Batterie-Wechselstation für Firmenflotten oder private Pkw wirtschaftlich betreiben zu können, muss folgende Entwicklung der Einflussfaktoren eintreten: Die Nachfrage nach Wechseln muss unerwartet hoch sein, der Dieselpreis muss über das derzeitige Niveau von 1,30 € pro Liter ansteigen um eine Erhöhung des Wechselpreises zu ermöglichen, die Strompreise dürfen nur leicht ansteigen. Weitere wichtige Einflussfaktoren auf alle drei Geschäftsmodelle sind die Batteriekosten. Die Menge der benötigten Batterien wird maßgeblich vom Konzept der Wechselstation determiniert und kann durch eine Verkürzung der Ladedauer reduziert werden. Zusatzdienstleistungen wie z.B. Vehicle-to-grid haben erst bei Erlösen von mehr als 25 € pro kWh Batteriekapazität und Jahr nennenswerten Einfluss auf die Wirtschaftlichkeit von Geschäftsmodellen mit Batterie-Wechselstationen.
Studienarbeit aus dem Jahr 2010 im Fachbereich Geowissenschaften / Geographie - Sonstiges, Note: 1,0, Katholische Universität Eichstätt-Ingolstadt (Mathematisch-Geographische Fakultät), Sprache: Deutsch, Abstract: Die Entwicklung des „Kunstwerks Mensch“ vor Jahrmillionen spiegelt sich in einem einzigen Bewegungsablauf ab, an dem sämtliche Regionen des Gehirns und aller Organe des menschlichen Körpers beteiligt sind. Diese stellt sich im Sport besonders deutlich dar. Der Organismus wird ständig herausgefordert und zu neuen Höchstleistungen gebracht. Im Leistungssport stehen alle Zielsetzungen unter einem besonderen Zeitdruck. Wer über die effizientesten Trainingsmethoden auf allen Ebenen - von der Biomechanik über die Ernährung bis zur Psychologie - verfügt, hat eine höhere Chance, zu gewinnen. Dazu müssen auch äußere Rahmenbe-dingungen wie Temperatur oder Luftfeuchtigkeit stimmen. Über das menschliche Verhalten ist reichlich theoretisches und Anwendungswissen vorhanden. Deshalb muss die Fülle des Wissens auf die praktisch anwendbare Menge reduziert werden. Dazu gilt das „Prinzip der minimalen Intervention“ (Kanfer et al., 1991: 37) ganz besonders im Höchstleistungsbereich (vgl. Kogler 2006: 6). Die vorliegende Arbeit umfasst eine Zusammenführung von sportlicher Leistungsfähigkeit auf der einen Seite und die klimatische Beeinflussung auf den menschlichen Körper auf der anderen Seite. Vor dem Hintergrund des globalen Klimawandels werden im zweiten Teil zukünftige Klimaverhältnisse sowie -schutz in Verbindung mit Sport, deren organisationaler Struktur und möglichen Handlungsfeldern aufgezeigt.
Dieses Buch lädt Sie ein, draußen im Gelände die Geologie hinter Landschaften und Gesteinen aufzuspüren – ein idealer Zugang, um die vielseitigen und komplexen geologischen Prozesse zu verstehen, die im Wechselspiel von Magmatismus, Tektonik, Metamorphose, Klima und Sedimentation die heutige Erdoberfläche geformt haben. Gesteine und geologische Strukturen an der Erdoberfläche liefern die Schlüsselinformationen, die uns ermöglichen, die Abläufe im Bereich der Erdkruste und des oberen Mantels über die langen Zeiträume ihrer Entstehung nachzuvollziehen.

Tom McCann und Mario Valdivia-Manchego bieten einen anschaulichen Zugang zur geländeorientierten Analyse und Interpretation geologischer Prozesse . Ihr Ausgangspunkt ist dabei die genaue Geländebeobachtung. Die zahlreichen farbigen Grafiken und Aufschlussbildern erlauben, Strukturen anzusprechen und helfen, die geologischen Gegebenheiten zu erkennen und zu unterscheiden. Der Inhalt geht dabei weit über ein Mineral- und Gesteinsbestimmungsbuch hinaus, denn jeder Geländebeobachtung lassen sich ein oder auch mehrere Bildungsprozesse zuordnen, die letztlich zu einem raumzeitlichen Entstehungsmodell zusammengeführt werden. An diesen spannenden Schritt möchten die Autoren den Leser heranführen.

Das Buch ist für den Einsatz im Gelände gedacht und wendet sich einerseits an Studierende der geowissenschaftlichen Bachelor- und Master-Studiengänge, etwa als Hilfsmittel für die geowissenschaftliche Gel

ändeaufnahme, andererseits an die geologisch interessierten Leser denen das Werk als Begleiter bei Ausflügen durch die Natur gute Dienste leisten wird.

Inhaltsangabe:Zusammenfassung: Hangrutschungen treten weltweit auf und werden weltweit kartiert. Oft fehlen jedoch die Hinweise auf den Auslöser der Hangrutschungen. Natürliche Auslöser können Erdbeben, Niederschläge oder Bodenfeuchtigkeit sein. Im Gegensatz zu den zahlreichen Konzepten und Methoden für durch Niederschläge ausgelöste Hangrutschungen, sowohl für die lokale als auch für die regionale Ebene, fehlen diese weitgehend für Hangrutschungen, die durch Erdbeben ausgelöst werden. Für das Gebiet um Bonn gibt es seit Jahrzehnten Studien über Hangrutschungen. Der Schwerpunkt wurde jedoch auf die Kartierung der Hangrutschungen, sowie deren Bewegungsmuster gelegt. Obwohl in früheren Studien mehrfach darauf hingewiesen wurde, dass Erdbeben auch Hangrutschungen auslösen können, ist eine systematische Analyse für den Bonner Raum bislang nicht durchgeführt worden. In dieser Studie wird für den lokalen Bereich eine Methode benutzt, die für das Auftreten von Bodenverflüssigung entwickelt wurde, mit der Annahme, dass Bodenverflüssigung eines Hangsegmentes eine Rutschung auslösen könnte. Das Ergebnis dieser Berechnungen für einige ausgewählte Hänge sind die Minimum Magnitude und Beschleunigung, bei der Bodenverflüssigung auftreten kann. Für die regionale Analyse wurden diese Werte mit bekannten historischen Erdbeben verglichen und so potentielle Erdbeben mit den entsprechenden Magnituden bzw. Intensitäten lokalisiert. Anschließend wurden die Daten der Erdbeben mit denen der Hangrutschungen verglichen. Die Analysen zeigten, dass Erdbeben das Potenzial haben, im Bonner Raum Hangrutschungen auszulösen. Inhaltsverzeichnis:Inhaltsverzeichnis: GliederungI TabellenverzeichnisII AbbildungsverzeichnisII Verzeichnis der AnhängeIII Liste der Abkürzungen und SymboleV 1.Einleitung und Fragestellung1 2.Definitionen4 2.1Hangrutschung4 2.1.1Hangrutschungen als geomorphologischer Prozess4 2.1.2Typen von Hangrutschungen5 2.1.3Auslöser für Hangrutschungen7 2.2Erdbeben14 2.2.1Entstehung von Erdbeben19 2.2.2Erdbeben in Deutschland21 2.2.3Wellenausbreitung bei Erdbeben22 2.2.4Wege der Wellen mit Reflexionen und Verstärkungen24 2.2.5Einfluss der Wellenenergie auf verschiedene Bodenarten26 2.3Bodenverflüssigung29 3.Überblick zu Untersuchungen über 'Hangrutschungen, die durch Erdbeben ausgelöst werden'31 4.Untersuchungsgebiet Bonner Raum33 4.1Abgrenzung des Untersuchungsgebietes für Hangrutschungen35 4.2Abgrenzung des Untersuchungsgebietes für [...]
Hervorragende Fachautoren beschreiben ihre Erfahrungen zu Tragwerkstypen, Berechnungs-, Herstellungs- und Bauausführungsverfahren sowie Bauüberwachungsmethoden. Gegenüber den beiden vorangegangenen Auflagen wird im Einführungskapitel auf die neuere Entwicklung der Verwendung von Hochleistungsbeton im Brückenbau sowie auf Brücken aus Textilbeton eingegangen. Des Weiteren werden in diesem Kapitel integrale und semiintegrale Brücken behandelt, es werden Entwicklungen in der Bauweise mit verbundlosen internen Spanngliedern und die Nachrechnung von Brücken behandelt. Dazu wurden auch die sechs in den Jahren 2010 bis 2014 mit Brückenbaupreisen ausgezeichneten Brücken aufgenommen, sodass nun alle zehn von 2006 bis 2014 mit dem Brückenbaupreis ausgezeichneten Brücken im Buch enthalten sind. Die folgenden Kapitel, in denen auf das Entwerfen, Konstruieren, Berechnen, Bauen und Erhalten der Brücken eingegangen wird, wurden aktualisiert, indem die aktuellen EUROCODES berücksichtigt sind. Das Kapitel 12, Überwachung ,Prüfung, Bewertung und Beurteilung von Brücken, wird um den Abschnitt 12.7, Kontinuierliche, rechnergestützte, Dauerüberwachung (Monitoring) erweitert, indem an einem Beispiel, der Gärtnerplatzbrücke in Kassel, die Dauerüberwachung mit Hilfe von Schwingungstestdaten demonstriert wird. Nicht nur für Bauingenieure und Studierende des Bauingenieurwesens, sondern auch für alle, die am Brückenbau und seiner Entwicklung interessiert sind, ist dieses Buch ein unverzichtbarer Begleiter.
Inhaltsangabe:Zusammenfassung: Im Rahmen dieser Diplomarbeit werden Radardaten der Satelliten SEASAT-A und ERS-1 aus den Jahren 1978 und 1991 von Süd-Island computergestützt bei der Deutschen Forschungsanstalt für Luft- und Raumfahrt (DLR), Oberpfaffenhofen, für geowissenschaftliche Fragestellungen verarbeitet. Die Radarsatelliten beleuchten die Erde aktiv mit Mikrowellen und sind daher unabhängig von Sonnenstand und Tageszeit sowie von Wolken- und Wetterbedingungen. Es können also auch Daten von Gebieten der Erde gewonnen werden, die mit passiven Fernerkundungssensoren bisher nur sporadisch oder überhaupt nicht erfaßt wurden wie z.B. Island, denn aufgrund der geographischen Lage am Polarkreis im Nordatlantik herrschen auf Island häufig ungünstige Witterungsbedingungen und über einen großen Teil des Jahres niedrige Sonnenstände vor. Zunächst wird eine Einführung in die Grundlagen der Radar-Fernerkundung gegeben. Hierbei werden die Besonderheiten der Aufnahmegeometrie herausgestellt sowie die Einflüsse der Radarsystemparameter und der Einfluß des Objektes selbst auf das rückgestreute Radarsignal beschrieben. Anschließend erfolgt eine ausführliche physiogeographische Beschreibung der klimatologischen, geomorphologischen und geologischen Gegebenheiten Islands sowie des Testgebietes, das südwestlich des Gletschers Vatnajökull liegt. Die Satellitenszenen werden geometrisch entzerrt bzw. geocodiert. Hierzu wird beschrieben, wie mit dem Geo-Informationssystem (GIS) ARC INFO aus der topographischen Karte im Maßstab 1 zu 100.000 die Höheninformation digitalisiert und daraus ein digitales Geländemodell erzeugt wird. Nach der Entzerrung der Szenen wird ihre geometrische Genauigkeit überprüft. Schließlich werden die Radarsysteme hinsichtlich ihres geomorphologischen und geologischen Aussagewertes interpretiert. Dies geschieht zuerst durch eine computergestützte Klassifizierung der Daten mit dem "Evidenz-Basierten Interpretationssystem von Satellitenbilddaten" (EBIS). Abschließend werden die Radarszenen visuell interpretiert, um Aussagen über Gemeinsamkeiten und Unterschiede zwischen dem L Band SAR des Satelliten SEASAT-A und dem C Band SAR des Satelliten ERS-1 treffen zu können. Aufgrund der Naturraumausstattung des Testgebietes beschränkt sich die Interpretation auf glazial- und periglazialmorphologische sowie geologische Phänomene. Inhaltsverzeichnis:Inhaltsverzeichnis: AbbildungsverzeichnisIII TabellenverzeichnisIV 1.Einleitung und [...]
Inhaltsangabe:Problemstellung: Rund 1,3 % des Primärenergiebedarfes werden in Deutschland für die Kälteerzeugung zur Gebäudeklimatisierung aufgewendet. Ein riesiger Energieverbrauch und ein enormes Einsparpotenzial, das viel zu wenig genutzt wird. Im Vergleich dazu liegt der Anteil der erneuerbaren Energien am Primärenergieverbrauch bei etwa 6,6 %. Doch während die erneuerbaren Energien seit Jahren besonders im öffentlichen Interesse stehen, wird die Effizienz der Kälteerzeugung kaum beachtet. Zu den Themen - Gesamttreibhauspotential von Kälteanlagen zur Gebäudeklimatisierung (total equivalent warming index oder TEWI- Wert). - Teillastverhalten von Kältemaschinen. - Wirtschaftlichkeitsberechnungen in der Kälteerzeugung gibt es in Deutschland kaum Literatur. Gang der Untersuchung: In der vorliegenden Master-Thesis wird die Kälteerzeugung zur Gebäudeklimatisierung unter ökologischen und ökonomischen Aspekten untersucht. In der Arbeit wird nachvollziehbar dargestellt, wie verschiedene Varianten der Kälteerzeugung an Hand des TEWI-Wertes ökologisch miteinander vergleichbar sind. Der TEWI ermöglicht es Kälteanlagen qualifiziert zu beurteilen, sowohl in Bezug auf das Treibhauspotential des Kältemittels als auch im Hinblick auf den verursachten Treibhauseffekt durch den Stromverbrauch. Der Berechnungsalgorithmus für den TEWI-Wert wird anschaulich dargestellt und die Einflussfaktoren werden ausführlich erläutert. Die Berechnung wird für verschiedene Kälteerzeugungsanlagen für ein Einkaufszentrum vorgeführt und ist sowohl auf bestehende als auch auf neue Kälteanlagen übertragbar. Im zweiten Teil der Masterarbeit werden die ökonomischen Hintergründe der Kälteerzeugung beleuchtet. Es wird ein Berechnungsalgorithmus vorgegeben, der es ermöglicht, die Kapitalwerte unterschiedlicher Arten der Kälteerzeugung und damit die auf den Investitionszeitpunkt abgezinsten Kosten zu berechnen. Damit werden unterschiedliche Anlagentypen finanziell vergleichbar. Nach Festlegung der Rahmenbedingungen sind die Kapitalwerte mit Hilfe einer flexibel verwendbaren Excel-Tabelle sehr einfach zu ermitteln. In der Berechnung können alle wesentlichen Faktoren auf den Kapitalwert wie: - Investitionskosten. - Laufzeit und Zinsen. - Energiekosten. - Bedienung-, Instandhaltungs- und Wartungskosten. - Preissteigerungen für die Kosten frei gewählt und beliebig verändert werden. Die Kostenrechnung ist analog ebenfalls auf Bestandsanlagen übertragbar. Die Berechnungen des [...]
Inhaltsangabe:Einleitung: Mit Inkrafttreten der Novelle des Energiewirtschaftsgesetzes im April 1998 wurde der deutsche Elektrizitätsmarkt in einem Schritt dereguliert. Seit diesem Termin können Industrie- und Privatkunden in Deutschland ihren Stromlieferanten selbst wählen. Die Liberalisierung der ehemals durch Gebietsmonopole geschützten Energiewirtschaft ist ein weltweiter Mit Inkrafttreten der Novelle des Energiewirtschaftsgesetzes im April 1998 wurde der deutsche Elektrizitätsmarkt in einem Schritt dereguliert. Seit diesem Termin können Industrie- und Privatkunden in Deutschland ihren Stromlieferanten selbst wählen. Die Liberalisierung der ehemals durch Gebietsmonopole geschützten Energiewirtschaft ist ein weltweiter Trend. Auf den deregulierten Märkten ist, zusätzlich zur Stromerzeugung und dem Stromtransport, ein neues Element der Elektrizitätswirtschaft entstanden: Der Handel mit Strom. Der freie Handel mit elektrischer Energie birgt sowohl Chancen als auch Risiken für die Marktteilnehmer, deren Planungssicherheit bezüglich Erlöse und Absatzvolumina sinkt. Von etablierten Warenmärkten sind Organisationsformen bekannt, die einen mit geringen Transaktionskosten verbundenen, transparenten, schnellen und sicheren Handel ermöglichen. In den meisten Ländern mit liberalisiertem Elektrizitätsmarkt sind deshalb Strombörsen gegründet worden oder zumindest in Planung. In Deutschland wird z. Zt. an zwei Orten (Leipzig, Frankfurt/M.) versucht eine Strombörse zu etablieren. Gang der Untersuchung: Zur Einleitung der Arbeit wird die Entwicklung von Warenbörsen bis zur Entstehung von Strombörsen aufgezeigt. Dabei wird auch die Entwicklung von Strombörsen auf den liberalisierten Energiemärkten anderer Länder kurz beleuchtet. Zentraler Inhalt ist die Beschreibung der Risiken, die beim Handel mit elektrischer Energie an Strombörsen auftreten sowie die Darstellung wie diesen begegnet werden kann. Dabei werden die spezifischen Eigenschaften der Ware Elektrizität im Vergleich zu etablierten Warenmärkten hinsichtlich des Risikomanagements sowie der Risikomessung geschildert. Abschließend werden Instrumente zum Risikomanagement an Strombörsen vorgestellt und deren spezifische Eigenschaften erläutert. Inhaltsverzeichnis:Inhaltsverzeichnis: 1.Einführung1 1.1Problemstellung1 1.2Aufbau der Arbeit1 1.3Begriffsdefinitionen2 1.3.1Risiko2 1.3.2Risikomanagement3 2.Strombörsen6 2.1Die Entwicklung von Waren- und [...]
Inhaltsangabe:Einleitung: Motivation: Der Energiemarkt steht sowohl in Deutschland als auch international vor einem Wandel. Analoge Ferraris-Zähler sollen auf Dauer durch intelligente Zähler, sogenannte Smart Meter, ersetzt werden. Die Smart Meter erlauben es, den Strom digital und in Echtzeit zu erfassen und diese Daten über geeignete Kommunikationsanbindungen entsprechend an die Energieversorger zu übertragen. Diese sind dadurch in der Lage, monatliche, dem tatsächlichen Verbrauch entsprechende Rechnungen zu erstellen. Getrieben von der EU und den Regierungen soll das Verbrauchsbewusstsein somit erhöht werden und auf lange Sicht zu Verbrauchseinsparungen führen. Des Weiteren gelten die Smart Meter als ein wichtiger Baustein für ein intelligentes Stromnetz, auch Smart Grid genannt. Mit Hilfe der Verbrauchsinformationen ist es den Energieversorgern möglich, Verbrauchsspitzen genauer einschätzen zu können und ggf. durch günstigere Anreiztarife die Lasten besser auf den Tag zu verteilen. Haushalte innerhalb eines Smart Grid sind somit in der Lage, ihren aktuellen Stromverbrauch direkt ablesen zu können; die Smart Meter können intelligent den aktuell günstigsten Tarif für ihre Verbraucher auswählen und selbst erzeugter Strom kann, sofern er nicht selbst benötigt wird, zurück in das Netz gespeist werden. Langfristig kommt es so zu einer Entwicklung von der zentralen zur dezentral verteilten Energieerzeugung. Der angedeutete Wandel zu einem intelligenten Netz ist bis jetzt in den einzelnen Ländern unterschiedlich weit vollzogen. Ein großflächiges Roll-out ist in vielen Ländern noch nicht in Sicht. Zahlreiche Energieversorger sind bis jetzt sehr zögerlich und können die Auswirkungen und die auf sie zukommenden Kosten noch nicht einschätzen. Auf die Energieversorger kommen daher viele neue Herausforderungen, insbesondere im Hinblick auf ihre IT, zu. Neben der neuen Infrastruktur, getrieben durch noch nicht vereinheitlichte Standards, Anforderungen an Hardware und Software sowie mögliche Kommunikationslösungen, sind es vor allem die großen Datenmengen, die es zu bewältigen gilt. Diese müssen nach den Aspekten des Datenschutzes und der Datensicherheit verarbeitet, in bestehende ERP-Systeme eingebunden und entsprechend für weitere Dienste wie z.B. CRM-Systeme aufbereitet werden. Zielsetzung der Arbeit: Das Ziel dieser Master Thesis soll es primär sein, durch eine detaillierte Anforderungsanalyse umfassende Herausforderungen ableiten zu können, [...]
©2021 GoogleSite Terms of ServicePrivacyDevelopersAbout Google|Location: United StatesLanguage: English (United States)
By purchasing this item, you are transacting with Google Payments and agreeing to the Google Payments Terms of Service and Privacy Notice.