Similar ebooks

Aufgrund der Deregulierung der Versicherungsmärkte haben sich in den letzten Jahren die Internationalisierung des Versicherungsgeschäfts und die Integration der Versicherungswirtschaft in die Finanzmärkte verstärkt. Dadurch geben die Konzernobergesellschaften oftmals das operative Versicherungsgeschäft auf und restrukturieren sich zur Finanzholding mit Allokations-, Planungs- und Kontrollfunktionen für die Konzerngesellschaften.
Hieraus erwächst ein Informationsbedarf, auf dessen Grundlage Bernd Müller für Unternehmen der Schaden-/Unfallsparte eine Betriebsergebnisrechnung zur konzernintern vergleichbaren Ermittlung der wirtschaftlichen Leistung entwickelt. Das Aufsetzen auf Daten der externen Rechnungslegung ermöglicht, bereits vorhandenes Datenpotential für interne Erfolgsrechnungen zu nutzen.

Verzeichnis: Aufgrund der Deregulierung haben sich in den letzten Jahren die Internationalisierung des Versicherungsgeschäfts und die Integration der Versicherungswirtschaft in die Finanzmärkte verstärkt. Dadurch geben die Konzernobergesellschaften oftmals das operative Versicherungsgeschäft auf und restrukturieren sich zur Finanzholding. Bernd Müller entwickelt für Unternehmen der Schaden-/Unfallsparte eine Betriebsergebnisrechnung zur konzernintern vergleichbaren Ermittlung der wirtschaftlichen Leistung.

Verzeichnis 2: Bernd Müller entwickelt für Unternehmen der Schaden-/Unfallsparte eine Betriebsergebnisrechnung zur konzernintern vergleichbaren Ermittlung der wirtschaftlichen Leistung.

Verzeichnis: Aufgrund der Deregulierung haben sich in den letzten Jahren die Internationalisierung des Versicherungsgeschäfts und die Integration der Versicherungswirtschaft in die Finanzmärkte verstärkt. Dadurch geben die Konzernobergesellschaften oftmals das operative Versicherungsgeschäft auf und restrukturieren sich zur Finanzholding. Bernd Müller entwickelt für Unternehmen der Schaden-/Unfallsparte eine Betriebsergebnisrechnung zur konzernintern vergleichbaren Ermittlung der
Studienarbeit aus dem Jahr 2001 im Fachbereich Umweltwissenschaften, Note: 1,7, Brandenburgische Technische Universität Cottbus (Institut für Umweltmanagement), 7 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: Allgemeines zum ländlichen Raum Der ländliche Raum, wie der Begriff im Allgemeinen verstanden wird, umfasst Gebietskörperschaften und Naturlandschaften, Ackerland, Wälder, Dörfer, Kleinstädte, industrielle Einsprengsel und regionale Zentren. Der ländliche Raum bildet ein sehr vielfältiges und kompliziertes Wirtschafts- und Sozialgefüge. Aufgrund seiner reichhaltigen natürlichen Ressourcen, Lebensräumen und kulturellen Traditionen spielt es eine immer größer werdende Rolle für Erholung und Freizeit. Der Begriff „ländlicher Raum“ wird zu meist von jedermann so verstanden, als dass dem ländlichen Raum ein materielles, soziales und kulturelles System vorliegt, welches das Gegenteil vom „städtisch“ ist. Eine eindeutige und für alle Zwecke brauchbare Abgrenzung zwischen Stadt und Land ist jedoch nicht möglich. Die Mitgliedsstaaten der EU haben im allgemeinen jeweils eigene Definitionen des ländlichen Raumes entwickelt. Diesen Definitionen liegen meist Kriterien wie landwirtschaftliche Merkmale, Bevölkerungsdichte oder Bevölkerungsrückgang zugrunde. Zur Abgrenzung zwischen ländlichen und städtischen Gebieten wird meist das Kriterium der Bevölkerungsdichte verwendet. Dieses ist aber oft zu ungenau und als Richtschnur für politische Entscheidungen nicht geeignet. Ländliche Gebiete lassen sich durch ihre Bevölkerungsentwicklung auf lokaler Ebene unterscheiden. Auf der einen Seite sind manche ländlichen Gebiete Europas, so z.B. in den ostdeutschen Bundesländern und im französischen Zentralmassiv, durch Abwanderung der Bevölkerung gekennzeichnet, auf der anderen Seite sind aber manche Gebiete durch Zuwanderung gekennzeichnet. Die OECD hat vor einiger Zeit ein einfaches System zum internationalen Vergleich der Strukturen und Trends der verschiedenen ländlichen Räume entwickelt. Dieses System hat sich trotz der großen Unterschiede im Hinblick auf die ländlichen Probleme, Perspektiven und Politiken auf staatlicher Ebene als zweckmäßig erwiesen. Dieses System unterscheidet zwei hierarchische Ebenen von Gebietseinheiten, die lokale und die regionale Ebene. Auf lokaler Ebene definiert die OECD ländliche Gebiete als Gemeinwesen mit einer Bevölkerungsdichte von weniger als 150 Einwohner je Quadratkilometer. Auf regionaler Ebene unterscheidet die OECD größere funktionale und administrative Einheiten nach dem Grad ihrer „Ländlichkeit“, je nachdem, wie hoch der Anteil der regionalen Bevölkerung ist, der in ländlichen Gemeinwesen lebt. [...]
Studienarbeit aus dem Jahr 2006 im Fachbereich Umweltwissenschaften, Note: 1,3, Brandenburgische Technische Universität Cottbus, 43 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: Das Hirschberger Tal, wie wir es heute vorfinden, ist eine mit der Zeit gewachsene Kulturlandschaft. Als Talkessel wird es einerseits vom Riesengebirge und andererseits von der Schneekoppe begrenzt. Neben der natürlichen Schönheit hat es eine Fülle kultureller Sehenswürdigkeiten zu bieten. Mit einer kaum zu findenden hohen Dichte an Burgen und Landschlössern ist es ein ausgezeichnetes Denkmal kultureller Entwicklung. Damit ist das Hirschberger Tal als Kulturlandschaft durch die Natur und durch die menschliche Kultur geprägt. Das eine ohne das andere ist nicht zu denken - nur das Zusammentreffen beider Faktoren bestimmt das letztendliche Aussehen einer Kulturlandschaft. Die natürliche Entwicklung ist nicht Gegenstand dieser Arbeit. Hier soll ein Beitrag zum Verständnis des Werdens der kulturellen Seite geleistet werden. Wovon ist dieses aber abhängig? Manche meinen, die Ideen, die Politik usw. bestimmen als Letztes das kulturelle Werden. Dem ist aber nicht so. Das Denken, und damit die Ideen oder die Politik, resultiert aus einer materiellen Grundlage. Das Leben des Menschen, wie er sein Leben produziert und reproduziert, bestimmt seine Ideen und Vorstellungen. Was hier untersucht werden soll, sind die sozio-ökonomischen Grundlagen dieser Entwicklung. Sie zu betrachten, bringt ein Ergebnis hervor, dass sehr umfangreich ist. Anfangs war geplant, in jener Zeit anzufangen, als die slawischen Stämme damit begannen, in das Gebiet vorzustoßen, welches von den Germanen verlassen wurde. Bis zur Elbe drangen die slawischen Stämme vor und herrschten dort über einige Jahrhunderte. Vom gesellschaftlichen Aufbau unterschieden sie sich kaum von den abgezogenen Germanen. Ihre Gesellschaft glich anfangs einer großen Genossenschaft 1 , in der es kein Privateigentum am Hauptproduktionsmittel - Grund und Boden - gab. Brandrodungen schufen die Grundlagen für den Getreideanbau und die Viehzucht. Eine hohe Mobilität war für die Stämme notwendig, da die Böden schnell erschöpften. Im Gegensatz zu den leichten Böden Großpolens und Masowiens konnte in Schlesien, in dem schwere und fruchtbare Böden vorherrschten, erst mit dem sich langsam verbreitenden eisenbeschlagenen Pflug beackert werden. Anfangs wurde in Einzelhöfen oder kleinen Hofgemeinschaften gesiedelt. Mit dem Anwachsen der Produktivkräfte geriet aber diese Einrichtung ins Wanken. Privateigentum am Grund und Boden und eine zunehmende soziale Differenzierung entstand. [...]
Studienarbeit aus dem Jahr 2000 im Fachbereich Philosophie - Praktische (Ethik, Ästhetik, Kultur, Natur, Recht, ...), Note: 2,3, Brandenburgische Technische Universität Cottbus (LS Technikphilosophie), Veranstaltung: Ringvorlesung Globalisierung, 5 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: Definition und Ursachen Es gibt verschiedene Bereiche, in die man den Begriff Globalisierung einteilen kann: Globalisierung in wirtschaftlicher und sozialer Dimension, in politischer und gesellschaftlicher Dimension und in der kulturellen Dimension. Ich möchte aber hauptsächlich auf die Globalisierung in wirtschaftlicher und sozialer Dimension eingehen. Als Globalisierung in wirtschaftlicher und sozialer Dimension sollen hier „die Ursachen, Merkmale und Auswirkungen der zunehmenden weltweiten Vernetzung und Interdependenz nicht nur von Güter- und Faktormärkten, sondern auch von Unternehmen und Produktionsstandorten bezeichnet werden.“2 Globalisierung ist kein zufälliges Naturereignis, welches am Ende des 20. Jahrhunderts über die Menschheit hereingebrochen ist. „Das neue Wort „Globalisierung“ hat die Ökonomen nicht sonderlich interessiert, weil für sie der Vorgang der Globalisierung seit zwei Jahrhunderten das tägliche Brot ist.“3 Es ist vielmehr eine bewußt herbeigeführte Entwicklung, welche durch politische Gremien auf nationaler und internationaler Ebene bewilligt worden ist. Die rasante Zunahme an Außenhandelsaktivitäten wäre ohne die internationalen Abkommen GATT und WTO nicht denkbar. In Europa haben vor allem die Freiheiten für Waren, Dienstleistungen, Menschen und Kapital zum Abbau von Handelshemmnissen im Europäischen Binnenmarkt geführt. Aber ohne die neueren, großen Freihandelsräume NAFTA und MERCOSUR in Nord- und Südamerika und ASEAN in Südostasien wären es vermutlich nicht zu einem weltweiten Güter- und Kapitalaustausch mit heutigem Ausmaß gekommen. [...] _____ 2 „Ulmensien- Schriftenreihe der Universität Ulm: Globalisierung und Soziale Marktwirtschaft. Auf der Suche nach Balance: Soziale Marktwirtschaft im Kräftespiel der Globalisierung“;1999; Prof. Dr. Joachim Voeller; S.10 3 „Logik der Globalisierung“;1999; Prof. Dr. C. Christian von Weizsäcker; S. 5-6
Studienarbeit aus dem Jahr 2002 im Fachbereich Politik - Internationale Politik - Region: Südosteuropa, Balkan, Note: 1,3, Brandenburgische Technische Universität Cottbus (LS Technikphilosophie), Veranstaltung: Kurs: Recht und Moral, Sprache: Deutsch, Abstract: Menschenrechte wurden verletzt, seit es den Gedanken der Menschenrechte gibt. Seit dem Ende des 2. Weltkrieges und dem Bekannt werden der Greultaten des Naziregimes bekam der Gedanke der Menschenrechte neuen Auftrieb. Die Wahrung und die Verteidigung der Menschenrechte wurde bislang als innerstaatliche Aufgabe angesehen und Interventionen von außen, selbst mit humanitären Hindergrund, widersprachen dem Selbstbestimmungsrecht der Nationen. Was aber ist, wenn der Staat, welcher zum Zwecke des Schutzes der Rechte seiner Bürger existiert, selbst massiv Menschenrechte verletzt, sich als unfähig erweist, Menschenrechte im Inneren zu schützen, oder nicht willens ist, diese zu verteidigen? Ist es dann nicht die moralische Pflicht eines anderen Staates, zu intervenieren und die Wahrung der Menschenrechte durchzusetzen? Ist eine solche Intervention überhaupt im Völkerrecht zulässig oder muss das Selbstbestimmungsrecht der Nationen generell dem Menschenrecht gegenüber als höherwertig betrachtet werden? Ein Beispiel für eine Intervention, welche durch die Angabe von Menschenrechtsverletzungen legitimiert werden sollte, ist der von der NATO durchgeführte Krieg gegen Jugoslawien. Dieser Krieg sollte zum Ziel haben, die angeblichen Menschenrechtsverletzungen im Kosovo zu beenden und den Frieden auf dem Balkan wiederherzustellen. Im Zuge diesen Krieges wurden immer mehr Stimmen laut, welche auf das Völkerrecht verwiesen und welche festzustellen glaubten, dass der NATO die völkerrechtliche Legitimation fehlte. "Die Leidtragenden dieser Show der Stärke waren und sind Serben und Kosovaren, deren Menschenrechte durch Luftangriffe verletzt wurden. Viele verloren bzw. verlieren aufgrund der zerstörten Infrastruktur und des gewachsenen Hasses ihr Leben. Dieser Völkerrechtsbruch, der militärische Überfall war ein Verbrechen." Angesichts solcher Sätze, welche man sehr oft lesen kann, werde ich mich in dieser Arbeit damit beschäftigen, ob und in welcher Weise Interventionen mit humanitären Zielen zulässig sind. Vorab möchte ich aber darauf hinweisen, dass diese Arbeit nicht vollständig sein kann, weil diese Arbeit sonst den gesetzten Rahmen sprengen würde. Ich werde aus diesem Grund völkerrechtliche und rechtsethische Fragestellungen nicht vollständig bearbeiten und wiedergeben können. Am Anfang dieser Arbeit werde ich allgemeine Fragen betrachten und versuchen zu beantworten. Am Ende werde ich versuchen, die gewonnenen Erkenntnisse auf das Problem des Kosovo-Krieges anzuwenden.
Diplomarbeit aus dem Jahr 2008 im Fachbereich Informatik - Technische Informatik, Note: 1,7, Hochschule Deggendorf, 37 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: Stationäre Computer und Laptops sind aus dem heutigen Alltag nicht mehr wegzudenken. Beinahe alle Prozesse in einem Unternehmen werden heute von Computern unterstützt. Es obliegt dabei einer speziellen Gruppe von Mitarbeitern diese Computer und die Infrastruktur am Laufen zu halten. Diese Administratoren sind dabei auch für die Versorgung der Rechner mit der nötigen Software verantwortlich. Sobald ein zu verwaltendes Netzwerk von Computern eine gewisse Größe erreicht hat, wird die Installation der Rechner schnell zur Qual. Während es bei ein paar PCs noch kein großes Problem darstellt ’mal eben’ diese und jene Anwendung zu installieren, wird dies bei größeren Netzwerken zu einer Mammutaufgabe. Allzu schnell sind die Adminstratioren nur noch dabei von PC zu PC laufen und per Hand die nötige Software zu installieren. Zielsetzung dieser Diplomarbeit ist es, Methoden Verfahren und Tools der Softwareverteilung vorzustellen. Wie der Titel vermuten lässt, soll dabei neben den theoretischen Grundlagen auch die Praxis nicht zu kurz kommen. Die theoretischen und praktischen Ausführungen erheben dabei nicht den Anspruch auf Vollständigkeit. Die Arbeit möchte dabei die folgende Frage beantworten: Wie kriege ich die Installation von Anwendungen und Rechnern über das Netzwerk automatisiert und was muss ich dafür tun und beachten?
Studienarbeit aus dem Jahr 2007 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 1,3, FOM Hochschule für Oekonomie & Management gemeinnützige GmbH, München früher Fachhochschule, 28 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: Die zunehmende Globalisierung und die damit verbundene starke Verflechtung der Unternehmen haben einen enorm ansteigenden Datenaustausch zur Folge. Weltweite Standortvernetzungen, darunter auch die Integration von Kunden bzw. Lieferanten in das eigene Datennetz, gelten als Standard und werden dementsprechend weiter ausgebaut. Neuere Themen wie VoiP1 (Voice-over-IP) oder IPVideoconferencing werden zunehmend in die Geschäftsprozesse eingegliedert. Viele Betriebe haben den Trend bzw. die Möglichkeiten der Telearbeit erkannt und wollen Ihren Mitarbeitern eine Technik zur Verfügung stellen, so dass diese mit Hilfe einer Einwahl in das Internet über einen beliebigen ISP (Internet Service Provider), auf Daten des firmeninternen Netzwerkes auch von außerhalb zugreifen können. Ein fester Bestandteil jeder heutigen IT-Landschaft ist dabei das VPN, das ein kostengünstiges und flexibles Verfahren zum Datenaustausch darstellt. Betriebe können so weltweit auf einfachste Weise mit Verbundunternehmen, Geschäftspartnern, Mitarbeitern oder beliebigen anderen Teilnehmern geschützt über das Internet kommunizieren. Die Zentralisierung von Rechnersystemen gewinnt auf Grund der immer komplexer werdenden Verwaltung von dezentralen Systemen zunehmend an Bedeutung. Das Mehrbenutzerkonzept der Terminal-Dienste bzw. eines Terminal-Servers stellt sich dabei als zukunftssichere Technologie zur Vereinfachung des Administrationsaufwandes dar. Zuerst wird in dieser Hausarbeit der Begriff VPN, die geeigneten Sicherheitstechniken sowie die dazugehörigen, standardisierten Tunneling-Protokolle erläutert. Der zweite Teil setzt sich mit der Thematik der Terminal-Dienste, dem sog. Serverbased Computing sowie den speziellen Protokollen der einzelnen Anbieter dieses Segmentes auseinander. Abschließend wird im letzten Teil untersucht, welche Vorteile bzw. Risiken sich aus der Nutzung von Terminal-Diensten über ein VPN ergeben und ob ein Einsatz in der Praxis sinnvoll ist.
Inhaltsangabe:Gang der Untersuchung: Das Ziel dieser Arbeit bestand neben der allgemeinen Darstellung gegenwärtiger Angebote im Bereich der mobilen Finanzdienstleistungen auch in der Analyse derselben. Ein subjektive Bewertung der einzelnen Applikationen eher vermeidend, wurden Hintergründe, Strategien und Probleme bei der Einführung von mobilen Produkten der Finanzwelt durchleuchtet (unterstützt durch über 20 Tabellen und selbst erstellten Grafiken). Obwohl diese Aspekte in der Literatur bisher meist nur allgemein auf M-Business oder M-Commerce bezogen diskutiert wurden, können gerade Finanzdienstleistungsunternehmen daraus Möglichkeiten und Chancen wahrnehmen, um Wettbewerbsvorteile zu generieren. Zunächst wird im zweiten Kapitel dieser Arbeit die Entwicklung von mobilen Finanzdienstleistungen näher gebracht, wobei u. a. Online-Banking und Mobile Banking kurz gegenübergestellt werden. Anschließend wird der Begriff der mobilen Finanzdienstleistung definiert und in den Kontext der Arbeit eingegliedert. Dabei erfolgt die Integration des Bereichs in die Themengebiete Mobile Business und Mobilfunk unter der Berücksichtigung der Kundenanforderungen, welche als ausschlaggebend für ein sinnvolles M-Finance erachtet werden. Der dritte Abschnitt und gleichzeitige Hauptteil der Arbeit besteht aus der Analyse der drei Hauptbereiche Mobile Banking, Mobile Brokerage und Mobile Payment und bezieht sich auf den Zeitraum der Jahre 2001 und 2002. Die drei Sektoren werden dabei neben einem jeweiligen, aktuellen Angebotsüberblick auch im Hinblick auf Sicherheit, Technik, Privacy und rechtliche Hintergründe untersucht. Jeweils ein ausführliches Beispiel rundet die drei Analysen ab. Da im dritten Teil eher die Kundenperspektive angeführt wird, auf der die Konzentration der Arbeit beruht, versucht das vierte Kapitel nur einen Einblick in die Betrachtungsweise der Anbieter zu gewähren. Damit sind in erster Linie die Finanzdienstleister gemeint, was allerdings die Telekommunikationsunternehmen bzw. andere Mitglieder in der Wertschöpfungskette nicht grundsätzlich ausschließen soll. Hier werden grundlegende Strategieausrichtungen zur Wertschöpfung angeführt, auf die Bedeutung des Kundenmanagements hingewiesen und potentielle Probleme hinterfragt. Das fünfte Kapitel besteht aus einer kurzen, prägnanten Schlussbetrachtung und einem Fazit. Darin werden die zentralen Ergebnisse der Arbeit noch einmal herausgestellt und es wird versucht, auf das vierte Kapitel aufbauend den [...]
Inhaltsangabe:Zusammenfassung: Krebserkrankungen sind die zweithäufigste Todesursache in den Industrienationen. Daher ist es wichtig, neue Behandlungsmethoden und Medikamente zu entwickeln, die effizienter und schonender wirken als heutige Therapien. Eine wichtige Voraussetzung für jede Behandlung ist die richtige Diagnose. Bei Tumoren gibt es jedoch viele verschiedene Arten und Subtypen, die sich äußerlich kaum unterscheiden, deren Biologie aber sehr unterschiedlich sein kann. Daher ist die Erfassung der inneren Vorgänge in den betroffenen Geweben von großer Bedeutung. Ein wichtiges Hilfsmittel ist dabei die DNA-Chip-Technologie. Mit DNA-Chips lassen sich Schnappschüsse der Abläufe in den Zellen machen, indem die Genexpression der verschiedenen Gene gemessen wird. Mit Hilfe dieser Expressionsdaten lassen sich dann Rückschlüsse auf die Situation ziehen. So kann man Typen von Tumoren klassifizieren und erkennen, welche Gene am bösartigen Zellwachstum beteiligt sind. In der Zukunft kann dies vielleicht einmal die Herstellung neuer, spezifischer Medikamente ermöglichen. Problematisch ist jedoch die Auswertung der Expressionsdaten, da es sich dabei nur um lange Folgen von scheinbar zusammenhangslosen Zahlen handelt. Bisher wurden dafür hauptsächlich statistische Klassifikationsverfahren, wie Nachbarschaftsanalyse, selbstorganisierte Karten oder Support Vector Machines benutzt. Kern dieser Diplomarbeit ist die Untersuchung, wie sich Genetische Programmierung (GP) für die DNA-Chip-Analyse eignet. GP funktioniert im Allgemeinen gut bei der Erkennung von verborgenen Strukturen in großen Datenmengen. Untersucht werden bestimmte binäre und multiple Klassifikationsprobleme aus dem Bereich der Krebsdiagnose, etwa die Frage, ob bestimmtes Gewebe gesund ist oder aus bösartigen Zellen besteht, oder um welche Art von Krebs es sich handelt. Als Datenbasis dienen verschiedene im Internet verfügbare öffentliche Datenmengen, die auch schon mit anderen Klassifikationsverfahren benutzt worden sind. Die Ergebnisse der GP-Versuche sind kleine automatisch generierte Programme, sogenannte Klassifikatoren, die für die Datensätze die jeweils vorher definierte Fragestellung beantworten sollen. Die Arbeit ist folgendermaßen gegliedert: In Kapitel 2 wird der biologische Hintergrund erläutert. Das Kapitel ist in zwei Teile aufgeteilt. Im ersten Teil wird ein Einblick in die molekulare Genetik gegeben. Dabei werden Geschichte der Genetik, der Aufbau der DNA, der Vorgang [...]
Inhaltsangabe:Einleitung: Das Internet führt zu zahlreichen Änderungen in unserer Gesellschaft: Es kann auf eine schier unbegrenzte Wissensbasis zugegriffen, weltweit auf eine einfache und günstige Weise kommuniziert oder einfach zu beliebiger Tages - und Nachtzeit eingekauft werden. Noch wesentlich größere Umwälzungen wird es durch den Bereich des Electronic Commerce geben, der ohne die große Verbreitung des Internets nie denkbar gewesen wäre. Durch die direkte Verbindung der IT-Systeme verschiedener Unternehmen werden herkömmliche Handelsbeziehungen und Strukturen neu definiert werden müssen. Besonderer Bedeutung kommen hierbei den B2B Marktplätzen zu, also virtuellen Handelsplattformen, die die Vermittlung von Waren und Dienstleistungen durchführen. Diese Entwicklungen führen aber auf der Seite der Programmerstellung zu einem enormen Aufwand: Anwendungen müssen leicht an die Bedürfnisse des Marktes angepasst werden können, ebenso soll eine Internetanwendung von verschiedenen Nutzern gleichzeitig verwendet werden. Sicherheitsaspekte dürfen dabei nicht außer Acht gelassen werden. Gleichzeitig sollen die Anwendungen einfach auf andere Rechnersysteme portiert werden können. Die Liste der Anforderungen könnte noch um einiges verlängert werden. Mit der J2EE-Plattform ist der Versuch unternommen worden, das Erstellen von Unternehmensanwendungen durch Komponenten, den sogenannten Enterprise Java Beans, zu vereinfachen und den Entwickler durch einen Application-Server von immer wiederkehrenden Routine-Aufgaben zu entlasten. Ziel dieser Arbeit soll unter anderem sein, einen Kooperationsdienst für einen B2B-Marktplatz als Prototyp zu realisieren und damit die Tauglichkeit und die Probleme der Enterprise Java Bean Technologie im Kontext einer Internetanwendung zu überprüfen. Es soll aufgezeigt werden, wie eine solche Anwendung strukturiert sein kann und an welchen Stellen die J2EE-Plattform modifiziert werden müsste. Gang der Untersuchung: Leider kann mit dieser Arbeit nicht das gesamte Spektrum der Anforderungen an eine solche Anwendung abgedeckt werden. Aus diesem Grund werde ich mich weitgehend auf die Architektur der Geschäftslogik und die persistente Datenhaltung beschränken. Im ersten Kapitel dieser Arbeit soll die zu entwickelnde Anwendung vorgestellt werden, um einen ersten Überblick zu geben. Eine Begriffsbestimmung zum Themenkomplex E-Commerce erfolgt im darauffolgenden Kapitel: E-Commerce eine Begriffsbestimmung. Das Kapitel 4 führt [...]
Bachelorarbeit aus dem Jahr 2009 im Fachbereich Informatik - Angewandte Informatik, Note: 1,0, Fachhochschule Oldenburg/Ostfriesland/Wilhelmshaven; Standort Emden, Sprache: Deutsch, Abstract: Interaktive Live-Internet-Videos, Live-Internet-Video, Live-Internet-Video-Streaming, Kostengünstige Distribution/Verteilung/Streaming von Live-Video über das Internet im Rahmen eines Special-Interest-Portals, Open-Source-Software, Interaktive Video-Overlays/Überblendungen (Werbung, Zusatzinformatinen usw.), Umfangreiche Analyse und Bewertung mit Realisierung eines Software-Prototypen. Geschichte des interaktiven Fernsehens, Rahmenbedingungen: Rechtliche Problematik, Sendelizenzen, Codecs, Patente, Internetprovider (P4P), P2P-Standards Client-Technologien: Adobe Flash, Adobe AIR, Microsoft Silverlight, Sun Java, Sun JavaFX TV, HTML5, AJAX/DHTML, Adobe DRM Streaming-Server-Software: Adobe Flash Media Interactive Server, Wowza Media Server 2 Pro/Advanced, Video Communication Server (VCS), Red5-Server, Windows Media Services 2008 Live-Streaming-Dienste: livestream.com, make.tv, ustream.tv, justin.tv, Dyyno, SimpleCDN Live-Streaming-Anwendungen: Telestream Wirecast, CombiTech Vidblaster P2P-Frameworks: Microsoft Vista P2P Toolkit, p2framework, Sun JXTA/JXSE, Goalbit, Tribler, SlapVid (HTTP-P2P-Localhost-Proxy als Java-Applet) gstreamer, webcamstudio, dsj (Sun Java – Microsoft DirectShow Wrapper), Medialooks Vision Mixer SDK, Datastead TVideoGrabber, Hmelyoff Video SDK, DirectShow mit GraphEditPlus, Kaltura Open-Source Video Projekte Vergleich der Protokolle/Ansätze: RTP/RTSP, RTMP, RTMFP, Progressiver Download, Adaptives Streaming, Smooth-Streaming, Unicast, Multicast, Grid, Cluster, Application-Layer-Multicast, Peer to Peer (P2P), Hybride Technologien P2P-Problemzonen: NAT/Firewalls, Churn, QoS ua. Möglichkeiten interaktiver Videos: Platzierung von Zusatzdaten, Textchat, Klickbare Links, Sendungsteilnahme durch Video-Rückruf Bewertung der interaktiven Dienste: WDR Web-TV, Ooyala, Klickable.tv (Hotspots) Interaktive Standards: Ginga-NCL (Nested Context Language), SMIL (Synchronized Multimedia Integration Language), MHP (Multimedia Home Platform), BD-J / BD-Live (Blue-Ray-Spieler), CE-HTML, Yahoo TV Widgets, Opera Devices SDK for connected TVs, IPTV, Adobe Open-Screen-Projekt, Adobe Flash TV auf Fernseher: direkter Empfang, indirekt mit Settop-Box: Pioneer nextshare tv, TVBlobbox, Neuros Link, Myka, Software-Bewertung: XBMC, PlayOn Bewertung Youtube-Modelles: Video-On-Demand und Live-Fernsehen Bewertung von HyLive, p2p-next, tribler, goalbit, webcamstudio Bewertung Dropthings, Linksgrid, iGoogle, Integration von Google Custom Search
Diplomarbeit aus dem Jahr 2004 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 2,0, Hochschule für angewandte Wissenschaften Ingolstadt, 67 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: Das Thema Radio Frequency Identification (RFID), also die Identifikation mit Funkwellen, erregte in den letzten Jahren viel Aufmerksamkeit in der Öffentlichkeit. Was oftmals jedoch von der Allgemeinheit übersehen wurde, ist, dass RFID nur einen kleinen Teil einer sich derzeit in der Entwicklung befindlichen Technologie ist. RFID-Transponder bzw. RFID-Tags sind schlussendlich keine neuen Technologien und nichts anderes als die verwendeten Datenträger. Die eigentlichen neuen Technologien, aus denen die tatsächliche IT-Infrastruktur gebildet wird, der Electronic Product Code (EPC) und die dahinter stehende EPC-Initiative, werden in der Öffentlichkeit vielfach gar nicht wahrgenommen. Das Buch ist inhaltlich gegliedert in drei Hauptkapitel. Das erste Kapitel wird zunächst das Wesen der hier gezeigten Technologien beschreiben. Dabei wird in einem ersten Schritt gezeigt, wie die RFID-Technologie funktioniert. In einem zweiten Schritt werden alle Komponenten des EPC-Netzwerks vorgestellt und abschließend die Verzahnungen und Zusammenhänge zwischen RFID und EPC herausgestellt. Im zweiten Kapitel werden Anwendungsmöglichkeiten der Auto-ID Technologie, also der Kombination aus RFID und EPC, beschrieben. Dabei stehen insbesondere die Anwendungsmöglichkeiten innerhalb der Supply Chain im Blickfeld. Das abschließende dritte Kapitel ins inhaltlich gegliedert in zwei Bereiche. Der erste Abschnitt wird sich mit der Wirtschaftlichkeit von Auto-ID Anwendungen befassen. Der zweite Bereich wird sich mit Datenschutzaspekten auseinander setzen, die durch den Einsatz der RFID-Technologie sowohl bei Konsumenten als auch bei Unternehmen entstehen können.
Inhaltsangabe:Einleitung: Weite Teile der Industrie beschäftigen sich heutzutage mit der Produktion von Konsumprodukten. Im Bereich der Konsumprodukte kommt der Konsumelektronik eine bedeutende Rolle zu. Es wird davon ausgegangen, daß der größte Einfluß auf die weitere Technologieentwicklung im Halbleiter-Bereich in den späten 90ern und wohl auch noch im frühen 21. Jahrhundert vom Bereich der Konsumelektronik ausgehen wird. Gang der Untersuchung: Die Arbeit hat die zwei Themenschwerpunkte: - Halbleiter-Produkte in Konsummärkten. - HW/SW-Partitionierung. Beide Themenschwerpunkte werden zunächst isoliert untersucht. Abschließend werden die Ergebnisse beider Untersuchungen im Gesamtzusammenhang betrachtet. Das Ergebnis der vorliegenden Arbeit besteht aus der Verbindung der aus beiden Untersuchungen abzuleitenden Trends. Das erste Teilziel der vorliegenden Arbeit ist eine Kategorisierung der Technologie, die bei der Realisierung von Konsumelektronik zum Einsatz kommt. Auf der Basis der dabei erzielten Ergebnisse erfolgt eine Trendanalyse bzgl. der Technologie-Entwicklung für die nahe Zukunft. In einem zweiten Schritt wird exemplarisch der Entwurf eines Systems aus dem Bereich der Konsumelektronik bis zum Schritt der Partitionierung durchgeführt. Der Vergleich der verschiedenen ermittelten Partitionierungen untereinander soll die Auswirkungen eines optimierten HW/SW-Partitionierungsprozesses auf künftige Systemrealisierungen darstellen. Außerdem wird untersucht, in welcher Form sich künftige Entwicklungen - wie z.B. eine konkrete Performance-Steigerung der Hardware - auf ein Design auswirken können. Inhaltsverzeichnis:Inhaltsverzeichnis: Abbildungsverzeichnisix Tabellenverzeichnisxi 1.Einleitung1 1.1Themenschwerpunkte dieser Arbeit1 1.1.1Halbleiter-Produkte in Konsummärkten1 1.1.2HW/SW-Partitionierung2 1.2Gliederung2 2.Konsummärkte und ihre Produkte5 2.1Charakterisierung der Konsummärkte5 2.2Charakterisierung der Produkte in Konsummärkten6 3.Heterogene Systeme9 3.1Begriff9 3.2Problemstellung beim Entwurf10 3.2.1Software10 3.2.2Prozessorarten12 3.2.2.1Gegenüberstellung Mehrzweck- - eingebettete Prozessoren12 3.2.2.2Kategorisierung eingebetteter Prozessoren13 3.2.3Hardware17 3.2.4Gegenüberstellung Hardware - Software18 4.Software in Konsumelektronik19 4.1Einleitung19 4.2Markt- und Prozessor-Trends19 4.2.1Stellung der Prozessoren auf dem Halbleitermarkt19 4.2.2Trends speziell bei eingebetteten [...]
Inhaltsangabe:Zusammenfassung: Ein Hauptgrund für die schleppende Entwicklung des E-Commerce ist darin zu sehen, dass geeignete elektronische Zahlungssysteme zur Leistungsabrechnung fehlen. Besonders geeignet, um diese Situation in den Griff zu bekommen, ist aufgrund ihrer großen Verbreitung und globalen Akzeptanz die Kreditkarte. Kreditkartenbasierte Bezahlverfahren für das Internet gibt es bereits seit Mitte der 90-er Jahre; jedoch haben es die Anbieter nicht geschafft diese Systeme auf dem Markt zu etablieren. In den letzten Monaten haben die Kreditkartenorganisationen besondere Anstrengungen unternommen, die bisherigen Verfahren zu verbessern und Innovationen zu schaffen. Dabei wurde besonders darauf geachtet frühere Schwachpunkte auszumerzen. In der vorliegenden Arbeit wird untersucht, wie die Kreditkarte im Internet genutzt wird, um Leistungen abzurechnen. Besondere Aufmerksamkeit wird dabei auf das Vorhandensein bestimmter Merkmale und Eigenschaften der verschieden Zahlungsverfahren gelegt. Denn nur wenn diese, von den Beteiligten geforderten Eigenschaften vorhanden sind, findet das Zahlungsverfahren allgemeine Anerkennung und damit eine weite Verbreitung. In Kapitel 1 wird allgemein auf die Kreditkarte als Zahlungsmittel im Internet eingegangen. Grundlegende Aspekte, wie die Teilnehmer und die gemeinsamen Merkmale der elektronischen Kreditkartenverfahren werden vorgestellt, um die Basis für das Verständnis der weiteren Kapitel zu legen. Die speziellen rechtlichen Gegebenheiten bei der Bezahlung mit der Kreditkarte im Internet sind Inhalt des zweiten Kapitels. Die Vertragsbeziehungen und Haftungsverhältnisse der Beteiligten werden dargestellt. Der zweite Teil des Kapitels erklärt grundlegende Techniken, die zur Aufgabe haben, bestimmte Sicherheitsanforderungen zu gewährleisten, um den Bezahlvorgang gefahrlos abzuschließen zu können. Die Teilnehmer, die in das jeweilige Verfahren involviert sind, stellen Anforderungen an die Eigenschaften des Verfahrens. Händler, Kunden und Banken haben teilweise gemeinsame, aber auch gegensätzliche Forderungen. Kapitel 3 beschäftigt sich mit den Anforderungen, die an kreditkartenbasierte Zahlungsverfahren gestellt werden. Das vierte Kapitel geht auf die Kreditkarten-Bezahlverfahren detailliert ein. Es enthält einen Überblick über Verfahren und Konzeption, zudem wird der Transaktionsablauf dargestellt. Daneben erfolgt eine Beurteilung, in wie weit die Eigenschaften des Verfahrens den aufgestellten [...]
Bachelorarbeit aus dem Jahr 2009 im Fachbereich Informatik - Allgemeines, Note: 1, FH OÖ Standort Steyr, Sprache: Deutsch, Abstract: The healthcare sector is currently changing. Whilst on the one hand constant efforts are being made to improve efficiency and effectiveness, on the other hand cuts and plans for a reform are being made to counteract the constantly rising expenditure. This counts for the laboratory branch as well, which is beginning to play a central role in healthcare. This bachelor thesis will examine whether the assignment of electronic data communication within the laboratory range permits an improved process cycle and thereby solve the described problems. Examples of these problems are mistakes like mixing up blood samples, incorrect labelling of samples, taking the wrong sample tubes, rising costs, increased administration expenditure and so on. By describing an actual process, which was evaluated in the context of this work, many of these problems are clarified to the reader. Subsequently, the basics of electronic data interchange are dealt with, whereby the focus is on the Extensible Markup Lan-guage (XML). The described possibilities for electronic communication will be inte-grated into a target process, which is opposed to the actual process. The result of this shows a net benefit for the laboratory. This is made particularly clear with the example of correct identification and continuous traceability of pre-barcoded blood collection tubes. The result of this bachelor thesis finally shows that within the laboratory field the adoption of electronic data communication by means of XML and use of a constant work-flow in combination with pre-barcoded blood collection tubes minimizes the problems, which were described at the beginning. This is made especially clear with the example of the correct identification and continuous traceability of pre-barcoded blood collection tubes.
Diplomarbeit aus dem Jahr 2002 im Fachbereich Informatik - Wirtschaftsinformatik, Note: 2,3, Duale Hochschule Baden-Württemberg, Stuttgart, früher: Berufsakademie Stuttgart (Wirtschaftsinformatik), Sprache: Deutsch, Abstract: Einer Einschätzung von Data Monitor zufolge werden im Jahr 2005 ca. 21,5 Millionen Menschen mobile Banking-Dienste nutzen. Das zeigt, welches Potential für die Banken in der Nutzung von „Mobile Devices“ wie Handy, PDA oder Pocket PC liegt. Viele Banken bieten den Kunden bereits die Möglichkeit per WAP-Handy Kontostände, Umsätze und Aktienkurse abzurufen. 2 Bisher wird aber in der Regel darauf verzichtet, Transaktionen über mobile Geräte durchzuführen. Dies liegt daran, dass es an mobilen Sicherheitslösungen mangelt, was den Durchbruch des M-Commerce hauptsächlich behindert.3 Aber gerade im Bereich der Mobile Security und der Verschlüsselung von drahtlosen Verbindungen hat sich in letzter Zeit viel getan. Es wurden neue Dienste in Europa eingeführt, wie z.B. i-Mode oder neue mobile Endgeräte, die Java Unterstützung bieten, wurden vorgestellt und auch der WAP-Standard wurde weiterentwickelt. Dazu kommt noch die Einführung neuer Datenübertragungsdienste, wie GPRS, HSCSD, und zukünftig UMTS, die die Datenrate erhöhen und somit die Wartezeiten verringern. Auch ist die Entwicklung im Bereich der Systemarchitekturen bei Banken ein entscheidender Faktor. Denn die dort eingeführten Multi-Channel-Architekturen eignen sich besonders zur Anbindung verschiedener Clients und Dienste. Dadurch wird die Anbindung von „Mobile Devices“ erleichtert, besonders wenn man diese schon in der Konzeptionsphase berücksichtigt hat. Um aber eine vernünftige Nutzung der mobilen Dienste gewährleisten zu können, müssen all diese Faktoren erfüllt sein. Damit kann man den Kunden Anwendungen zur Verfügung stellen, die benutzerfreundlich, nützlich und auch erschwinglich sind. Ziel der Arbeit ist es aufzuzeigen, welche technischen Möglichkeiten es für die Anbindung mobiler Endgeräte an eine Systemarchitektur gibt. Dies soll anhand eines Konzeptvorschlages für die Anbindung von „Mobile Devices“ an eine moderne Bankensystemarchitektur erfolgen. Dabei wird besonders auf die sicherheitsrelevanten Aspekte der Implementierung geachtet, da auch „kritische“ Transaktionen, wie z.B. Überweisungen, durchgeführt werden sollen. Im Kapitel 2 der Arbeit werden die Datendienste, die zurzeit bzw. in absehbarer Zeit in Europa verfügbar sind, erläutert. Dies beinhaltet unter anderem die logische Architektur, die verfügbaren Trägerdienste und ihre Auswirkungen auf die Übertragungsrate. Das dritte Kapitel beschäftigt sich mit den verschiedenen Technologien zur mobilen Datenübertragung. [...]
Inhaltsangabe:Einleitung: Die Liberalisierung der Arbeitsmärkte führt zu einer eingeschränkten Kontrolle der Zuwanderung von Arbeitskräften und wird in der Öffentlichkeit kontrovers diskutiert. Besonders die Migrationsdebatte der vergangenen Jahrzehnte ist aufgrund zunehmend schlechter Arbeitsmarktbedingungen immer stärker durch eine negative Stimmung geprägt. In Zeiten fortschreitender Globalisierung ist Arbeitsimmigration für die marktwirtschaftliche Ordnung einer Volkswirtschaft jedoch eine wesentliche Erfolgsbedingung und verhilft zur Erhöhung der gesamtwirtschaftlichen Wohlfahrt. Dessen ungeachtet führt vermehrte Zuwanderung auch zu Einkommensumverteilung bei inländischen Arbeitskräfte: Während Immigranten und Kapitaleigner meist als Gewinner aus dieser Situation hervorgehen, sind Teile einheimischer Arbeitskräfte die Lohn-Verlierer . Passen sich die Löhne nicht an die durch Immigration bedingte modifizierte Angebots- und Nachfragesituation an, kann dies unter bestimmten Bedingungen zu Substitution und somit steigender Arbeitslosigkeit einheimischer Arbeitnehmer (AN) führen. Durch Immigration können demnach auch negative Wohlfahrtseffekte entstehen. Diese negativen Effekte von Immigration sind umso größer, je geringer der Ausbildungsgrad der Immigranten ist und je stärker der Qualifikationslevel der Immigranten von dem der Einheimischen abweicht. Wanderungsbewegungen von ANn im Niedriglohnbereich wirken sich aufgrund der Konkurrenzsituation vorwiegend nachteilig für niedrig qualifizierte einheimische AN aus. Es kann eine Situation entstehen, in der für diese Arbeiter die Gefahr besteht, durch Immigranten substituiert zu werden. Diese Situation kann zu der Forderung einheimischer Niedrigqualifizierter (NQ) führen, die Zuwanderung ausländischer Arbeitskräfte zu unterbinden oder zumindest stärker zu reglementieren. Insbesondere wenn die Zuwanderungspolitik eines Landes vorwiegend liberal ausgerichtet ist, kann dies zu einer vermehrten Immigration von Arbeitskräften mit geringem Ausbildungslevel führen. Vor dem beschriebenen Hintergrund erscheint die Forderung nach mehr Restriktionen gegenüber der Zuwanderung ausländischer Arbeiter nicht zwingend als irrational. Irlands Immigrationspolitik ist eine der liberalsten in ganz Europa. Seit einigen Jahren sieht sich das Land einer Immigrationssituation gegenüber, die es unter Umständen erfordert, von dieser liberalen Haltung Abstand zu nehmen: Nach jahrzehntelangen Emigrationserfahrungen hat sich [...]
Das vorliegende Wegweiser-Buch führt den Leser zum erfolgreichen Ein satz von Turbo C und ist in die drei Abschnitte Grundlagen, Turbo C und Programmierkurs mit Turbo C gegliedert. Abschnitt "I Grundlagen": Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Programmentwicklung allgemein: Was sind Datentypen und Datenstrukturen? Welche Programmstrukturen unterscheidet die Informatik? Wie lassen sich Daten- und Programmstrukturen als Software-Bau steine anordnen? Was versteht man unter der Datei als Datenstruktur? Nach der Lektüre dieses Abschnitts sind Sie in der Lage, die Programm miersprache Turbo C in den Gesamtrahmen der "Datenverarbeitung bzw. Informatik" einzuordnen. Abschnitt "II Turbo C": Das Wegweiser-Buch gibt einen detaillierten Überblick zu Bedienung und Definitionen von Turbo C als Programment wicklungssystem: Wie installiert man das Turbo C-System? Wie erstellt man das erste Programm in Turbo C? Wie bedient man den Editor und den Compiler? Welche Befehle werden zur Softwareentwicklung bereitgestellt? Welche Datentypen, Operatoren und Funktionen stellr das Ent wicklungssystem zur Verfügung? Nach der Lektüre dieses Abschnitts können Sie das Turbo C-System be dienen sowie einfache Programme editieren, speichern, übersetzen und ausführen lassen. Abschnitt "111 Programmierkurs mit Turbo C -Grundkurs": Hier wird ein kompletter Programmierkurs mit den folgenden Problemkreisen angebo ten: Programme zu den einfachen Datentypen. Programme zu -den wichtigen Ablaufstrukturen (Folge-, Auswahl, Wiederholungs- und Unterprogrammstrukturen). Strukturiertes Programmieren (Funktionen, Lokalisierung von Be zeichnern, Parameterübergabe ). Textverarbeitung mit Strings als strukturiertem Datentyp. Tabellenverarbeitung mit Arrays als strukturiertem Datentyp. Dateiverarbeitung sequentiell und im Direktzugriff. VI Vorwort Zahlreiche Aufgaben dienen dem Einüben, Kontrollieren und Anwenden.
©2019 GoogleSite Terms of ServicePrivacyDevelopersArtistsAbout Google|Location: United StatesLanguage: English (United States)
By purchasing this item, you are transacting with Google Payments and agreeing to the Google Payments Terms of Service and Privacy Notice.