Similar ebooks

Bachelorarbeit aus dem Jahr 2008 im Fachbereich BWL - Rechnungswesen, Bilanzierung, Steuern, Note: 1,7, Frankfurt School of Finance & Management, Sprache: Deutsch, Abstract: Seit dem Frühjahr 2007 standen und stehen die Finanzmärkte im Zeichen der Subprime Krise. Nach einer langen Boomphase auf den Immobilienmärkten der USA die Kapitalmärkte begannen diese ab April 2007 nach und nach zu schwächeln, bevor die Krise dann im Sommer 2007 voll ausbrach. Die wieder steigenden Zinsen führten dazu, dass vielerorts die oftmals variabel gestellten Kredite durch ihre Schuldner nicht mehr bedient wurden und vermehrt Kreditausfälle auftraten. Somit gerieten auch immer mehr Finanzvehikel, die u.a. dazu dienen sollten Kreditrisiken zu transferieren, in die Krise und ließen den Preis vieler Schuldtitel kollabieren. Die folgende Kettenreaktion sorgte bei Banken weltweit für Liquiditäts- und Solvenzprobleme. Das Augenmerk der vorliegenden Arbeit liegt daher auf diesen regulatorischen Bestimmungen und Standards – Basel II und den International Financial Reporting Standards (IFRS) – und der Diskussion eines möglichen prozyklischen Wirkens der selbigen auf die Kreditvergabe. Basel II und IFRS wurden von nationalen und internationalen Regulatoren und Gesetzgebern verabschiedet, um in erster Linie dem Finanzsystem Stabilität und Sicherheit zu gewährleisten und somit größtmöglichen Schutz vor allem für Anleger und Kunden zu bieten Im Zuge dessen werden auf Seiten Basel II zum Einen die Entstehungsgeschichte von Basel I zu Basel betrachtet, um ein umfassendes Bild dieser essentiellen regulatorischen Bestimmung zu bekommen. Zum Anderen werden die vom Basler Ausschuss für Bankenaufsicht, mit Unterstützung Internationaler Banken, durchgeführten Quantitative Impact Studies 3 bis 5 dahingehend untersucht, ob es durch Dieselbigen zu „prozyklischen Hemmungen“ der Kreditvergabe durch Banken kommt. Auf Seiten der IFRS findet eine Analyse der Bilanzierung der in der Praxis verwendeten Finanzinstrumente zum aktuellen Zeitwert, dem Fair Value, statt. Konkret wird dabei auf die Auswirkung der Fair Value Bilanzierung im Bezug auf Kreditrisikotransferinstrumente eingegangen und deren Beitrag zu einem prozyklischen Wirken der IFRS Bilanzierung erörtert. Die Bewertungsmodelle aufgrund inaktiver Märkten und die oftmalige Intransparenz dieser Modelle sind auf Seiten von IFRS kritisch zu hinterfragen. Beide Aspekte sollten stets situationsbezogen und aktuell analysiert und ggf. angepasst werden.
Studienarbeit aus dem Jahr 2010 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Universität Basel, Sprache: Deutsch, Abstract: Seit ein finnischer Student 1988 mit IRC den Chat erfunden hat, kommunizieren Millionen von Menschen jeden Tag über verschiedene Plattformen wie ICQ, MSN, Facebook usw. in Gruppen oder privaten Gesprächen. Oft sind dabei die Gesprächsteilnehmer einander bekannt oder zumindest über gemeinsame Interessen verbunden. Friend- oder Buddylists ermöglichen, mit Chatpartnern dauerhaft in Kontakt zu bleiben, sofern gewünscht. Profile und Anzeigebilder geben möglicherweise Aufschluss über die Person, die vor dem Computermonitor sitzt. Mit Omegle (www.omegle.com) hat ein russischer Schüler 2009 ein puristisches Chatportal geschaffen, dass den Nutzer mit einem anderen Nutzer irgendwo auf der Welt verbindet. Jegliche Komfortfunktionen fehlen, weder Nicknames noch Profilbilder geben Anhaltspunkte über die Identität der jeweiligen Chatteilnehmer. Da zur Nutzung von Omegle keinerlei Informationen nötig sind, sind Gesprächspartner, einmal auf Disconnect geklickt, nicht mehr auffindbar. Die völlige Anonymität der Omegle-Nutzer bietet sich geradezu an, neue Identitäten zu erschaffen. Ein vierzigjähriger Japaner kann sich als achtzehnjährige Kanadierin ausgeben ohne dass sein Chatpartner eine Möglichkeit hat zu überprüfen, ob dessen Angaben stimmen. Geschlecht, Alter und Nationalität sind nur Wörter, eingegeben in einem Chatfenster. Dies führt zu folgender Fragestellung: Inwiefern beeinflusst die völlige Anonymität der Omegle-Nutzer ihr Kommunikationsverhalten im Hinblick auf ihre Online-Selbstdarstellungen, bzw. virtuellen Identitäten?
Die Berichterstattung zur Krise in der Ukraine und die Berichterstattung zu Russland haben zu einem offenen Schlagabtausch zwischen den etablierten Medien und einem nicht unerheblichen Teil ihrer Rezipienten geführt.

In den Foren der großen Online-Medien hagelt es Tag für Tag Kritik an den gebotenen Deutungsnarrativen der Leitartikler und Meinungsmacher. Nachrichten sollen manipuliert worden sein, von Zensur ist die Rede, ja, ein Teil der Mediennutzer ist davon überzeugt, dass die "vierte Gewalt" bewusst einseitig berichtet.

Vertreter der traditionellen Medien brandmarken die Kritiker als "Putinversteher" und stempeln sie allzu oft allgemein als Verschwörungstheoretiker ab. In aller Deutlichkeit geben meinungsführende Journalisten zu verstehen, dass sie das Monopol auf die legitime Deutung der gesellschaftlichen und politischen Wirklichkeit innehaben, wie es der französische Soziologe Pierre Bourdieu einmal sinngemäß in seinen Analysen des journalistischen Felds ausgedrückt hat. Der Konflikt zwischen den traditionellen Medien und ihren Rezipienten, das ist festzustellen, ist vor allem ein Kampf um die Deutungshoheit.

Dass die "Mainstreammedien", wie die großen Medien von ihren Kritikern oft bezeichnet werden, diesen Konflikt mit heraufbeschworen haben, lässt sich gut an den Beiträgen, die in diesem Buch zusammengestellt sind, ablesen. In den Interviews, Artikeln und Analysen von Telepolis-Autoren wird deutlich, dass es Problemzonen aufseiten der Medien gibt, die schon lange ersichtlich sind. Telepolis hat sich zur Veröffentlichung dieses Buches entschlossen, weil die Redaktion davon überzeugt ist, dass die zusammengestellten Beiträge in ihrer Gesamtheit ein eigenes Bild abliefern, das aufzeigt, was die Gründe für die massive Kritik an den Medien sind. Das Schließen von Leserforen, so wie es gerade die Süddeutsche Zeitung getan hat, ist ein Weg in die falsche Richtung.
Masterarbeit aus dem Jahr 2018 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,3, Johannes Gutenberg-Universität Mainz (Publizistik), Sprache: Deutsch, Abstract: Obwohl die Nutzung des Instant-Messenger-Dienstes WhatsApp nachweislich bei einem Großteil der Smartphone-Besitzer alltäglich geworden ist, fand die zwischenmenschliche Komponente in der Kommunikation bisher in der Forschung noch wenig Berücksichtigung. Zu den grundlegenden Funktionen der App gehört die schnelle, einfache und kostenlose Kommunikation mit Freunden und Familie. Aber aufgrund von Features wie beispielsweise der Lesebestätigung oder der zuletzt-online-Anzeige in Form des Onlinezeitstempels kommt es immer wieder zu Interpretationsproblemen auf Seiten der Gesprächspartner. An diesem Punkt setzt die vorliegende Masterarbeit an und untersucht, ob sich die Sozialnatur des Menschen in der WhatsApp-Kommunikation bemerkbar macht. Dabei steht unter anderem im Vordergrund, welche Arten von Gefühlen, beispielsweise Ängste, Sorgen oder aber auch ein Dazugehörigkeitsgefühl ausgelöst werden. Darüber hinaus wird erforscht, welche Handlungen aus den Bedeutungszuschreibungen des Onlinezeitstempels und der Lesebestätigung resultieren können und ob die Nutzer sich dessen überhaupt bewusst sind. Dazu wurden insgesamt elf qualitative Leitfadeninterviews mit Digital Natives und Digital Immigrants durchgeführt, welche alle WhatsApp in der täglichen Kommunikation nutzen. In den Interviews wurde sowohl auf die Einzelchatkommunikation als auch auf Gruppenchats eingegangen. Als zentrale Ergebnisse zeigte sich unter anderem, dass sich diese Applikation mittlerweile in allen Altersklassen im Alltag integriert hat und ein Verzicht schwer vorstellbar ist. In den Interviews wurde deutlich, dass die Sozialnatur des Menschen und das Bedürfnis nach Mit-Sein und Zugehörigkeit sich in der WhatsApp-Kommunikation tatsächlich wiederfindet. Die blauen Haken der Lesebestätigung rufen einen Antwort- und Reaktionsdruck hervor, das Ausbleiben einer erwarteten Antwort führt zum Eindruck einer geringen Wertschätzung und zu Enttäuschung.
Bachelorarbeit aus dem Jahr 2013 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,3, Fachhochschule Düsseldorf, Veranstaltung: Kommunikations- und Multimediamanagement, Sprache: Deutsch, Abstract: Die rasch fortschreitende Technologie elektronischer Bücher erntet immer mehr Aufmerksamkeit. Prägnant erscheint es, vor allem den Weg vom E-Book zur interaktiven Buch-App zu beobachten. Viele Autoren, Illustratoren, Verlage oder App-Produzenten versuchen derzeit, sich in diesem jungen Markt zu behaupten. Das Angebot an interaktiven Buch-Apps ist hier vor allem im Bereich des Kindermarktes enorm angestiegen. Ein wachsendes Portfolio an Büchern für Kinder hielt in den letzten Monaten auf iOS- und Android-Lesegeräten, wie dem iPad, Einzug. Eine Betrachtung der Buchkategorien des Apple App-Stores ergibt, dass Kinderbücher derzeit die Bestsellerlisten dominieren. Mit dem Aufkommen mobiler Lesegeräte wie dem Apple iPad oder dem Samsung Galaxy Tab und den dazugehörigen Marktplätzen wie dem iTunes und Google Play Store wird Kinderbuchautoren, Schriftstellern, Verlagen und Illustratoren eine neue Plattform geboten, um ihre Geschichten mit Kindern im digitalen Zeitalter zu teilen. Für viele Autoren und Verlage sind interaktive Buch-App-Projekt jedoch meist noch große „Spielwiesen“, auf denen ausprobiert wird, was überhaupt technisch machbar ist. Die Faktoren für eine erfolgreiche Kinderbuch-App sind bislang nicht genau definiert, welche als Orientierungshilfe für zukünftige Buch-App-Projekte dienen könnten. Es lässt sich weiterhin darüber debattieren, ob sich die Umwandlung gedruckter Printwerke in interaktive Kinderbücher überhaupt finanziell rentiert und welche Chancen sowie Risiken dieser Markt für Kreatoren, Vermittler und Nutzer mit sich bringt. Neue Produkteinführungen von Apple oder Samsung gewähren Akteuren im Kinderbuchmarkt zwar viele Handhabungen, werfen jedoch gleichzeitig mannigfaltige Fragen auf. Es existieren derzeit einige Studien, die einzelne Aspekte von Kinderbuch-Apps, wie z.B. der Einsatz von Kinderbuch-Apps im Bildungsbereich, beleuchten. Jedoch behandelt kein gesamtheitliches Werk die wirtschaftlichen, gesellschaftlichen, rechtlichen und technischen Marktbedingungen von Kinderbuch-Apps. Ziel dieser Thesis ist es, dass Contentanbieter, -produzenten und -nutzer die Dynamik dieses jungen Marktes verstehen und sich an den Ergebnissen dieser Arbeit für zukünftige Projekte orientieren können.
Diplomarbeit aus dem Jahr 2007 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,0, Hochschule für Angewandte Wissenschaften Hamburg (Fachbereich Medientechnik ), Sprache: Deutsch, Abstract: Das bewegte Bild hat sich aufgrund der steigenden Bandbreite des Web als mögliche Alternative zum stationären Fernsehen etablieren können. Auch mit mobilen Endgeräten ist der Empfang von mobilem Fernsehen, bedingt durch leistungsfähigere Prozessoren und eine stetige Erhöhung der Bandbreite mittlerweile möglich. Was verbirgt sich hinter dem Begriff Mobile-TV und welches Verfahren kann sich in Deutschland flächendeckend durchsetzen? Der Leser erhält einen umfassenden Überblick über nationale und internationale Techniken, die der Verbreitung von Handy-Fernsehen dienen. Dazu zählt auch ein Vergleich der verwendeten Encoding-Verfahren. Neben der Technik beschäftigt sich die Arbeit mit grundlegenden gestalterischen Fragen. Wie muss das neue Medium beschaffen sein, um sich in einer multimedialen Welt durchsetzen zu können? Es werden Ergebnisse von Meinungsforschungen und Umfragen nach Handy-TV-Pilotversuchen dazu benutzt, Schlussfolgerungen für die Gestalt dieses Mediums zu gewinnen. Im Rahmen der Arbeit entwickelt der Autor eine Anwendung in Flash Lite 2.0, die basierend auf der Streaming-Technologie, den Empfang von mobilem Fernsehen ermöglicht. Betrachtet werden hier u.a. die Unterschiede der Versionen des Flash Lite Player und deren Verbreitung auf den mobilen Geräten.
Inhaltsangabe:Einleitung: Einem eher moderaten Wachstum der transportierten Mengen an Nutzdaten durch die Sprachkommunikation der vergangenen Jahre steht ein exponentieller Anstieg der transportierten Datenmengen gegenüber. Wurden Kommunikationssysteme in der Vergangenheit vorwiegend für eine Sprachkommunikation ausgelegt, werden heutige Netze für den Datentransport entwickelt. Noch treffen diese Aussagen hauptsächlich auf Festnetzanschlüsse zu. Im Mobilfunk werden derzeit noch über 70% der Einnahmen durch leitungsvermittelnde Sprachdienste erzielt. Beachtet man, dass die Entwicklung in Mobilfunknetzen denen im Festnetz etwa 5 bis 6 Jahre nach stehen, erkennt man, dass die Verkehrsmengen durch Datenkommunikation auch in Funknetzen in naher Zukunft überwiegen werden. Im Gegensatz zu leitungsvermittelnden Festnetzdiensten entstehen im Mobilfunk die höchsten Belastungen nicht durch Vermittlungsknoten, sondern durch das Radio Access Network (RAN). Vor allem die große Anzahl von Basisstationen verursacht hohe Kosten, die auch bei der Umstellung auf eine reine paketvermittelnde Struktur nicht signifikant sinken. Eine Substitution leitungsvermittelnder Dienste wird daher nicht so schnell voran getrieben wie das im Festnetzbereich zu erkennen ist. Um aber auf zukünftige Entwicklungen flexibel reagieren zu können, erfolgt auch im Mobilfunk die langsame Abkehr von leitungsvermittelnden Diensten. Eine der Schlüsseltechnologien für die Substitution von herkömmlichen Sprachdiensten ist Voice over IP. VoIP beschreibt dabei Verfahren zur Übermittlung von Sprache in IP basierenden Datennetzen. Das heißt, um eine Konvergenz der Netze zu gewährleisten ist es nötig Echtzeitkommunikation in Datennetze zu integrieren. Jedoch entstehen durch diese Integration von Echtzeitdiensten neue Heraus- und Anforderungen. Die Performance von Voice over IP im Mobilfunk wurde sowohl theoretisch als auch praktisch schon vielfach untersucht. Jedoch basierten die Bedingungen für die Untersuchungen stets auf einer stationären Nutzung. Die Frage nach der mobilen Nutzung von VoIP steht aber noch offen. Welchen Einfluss haben Zellwechselprozesse auf die Dienstgüte von VoIP? Und wie wirkt sich die Teilnehmermobilität auf die Performance von Voice over IP aus? Hauptaugenmerk dieser Arbeit richtet sich daher auf die Zellwechselprozesse in Mobilfunknetzen. Dabei werden die Systeme GPRS, EDGE, UMTS, HSDPA und WLAN untersucht. Im Mittelpunkt steht dabei die von einem Nutzer wahrnehmbare [...]
Der vorliegende Versuch war ursprünglich Teil einer nicht zur Veröffentlichung bestimmten Festschrift aus Anlaß des 65. Ge burtstages meines verehrten Lehrers, des Göttinger Ordinarius für Philosophie Josef König, am 24. Februar 1958. Der Aufsatz er schien dann in zwei Teilen in den Heften 2 und 3 des 10. Jahrgan ges der Kölner Zeitschrift für Soziologie und Sozialpsychologie. Dem Westdeutschen Verlag bin ich für die Bereitschaft zu Dank verpflichtet, einen unveränderten Abdruck dieser Fassung nun mehr gesondert herauszubringen. Thema und Absicht der Überlegungen zur Gestalt des homo sociologicus ist die Suche nach einer Elementarkategorie für die eigenständig soziologische Analyse der Probleme des sozialen HandeIns. Wenn Durkheims »soziale Tatsachen« mehr sind als eine Fiktion, dann muß es möglich sein, diese mit der ganzen Strenge erfahrungswissenschaftlicher Methodik zu beschreiben und in bestimmten Problemzusammenhängen zu erklären. Für solche Beschreibung und Erklärung nun ist nach der These des folgenden Essays die Kategorie der sozialen Rolle zentral. Diese Kategorie ist in jüngerer Zeit insbesondere in der englischen Eth nologie und amerikanischen Soziologie entwickelt worden: inso fern erfullt mein Essay für einen kleinen Bereich den in Deutsch land noch immer dringlichen Auftrag der Rezeption. Der Begriff der Rolle läßt indes in seiner gegenwärtig international akzeptier ten Ausprägung noch manche Frage offen; insofern liegt meine Absicht in seiner Verfeinerung und Weiterführung.
Studienarbeit aus dem Jahr 2014 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,3, Rheinische Fachhochschule Köln, Veranstaltung: International Marketing and Media Management, Sprache: Deutsch, Abstract: The music industry is in the midst of change. This change has been triggered by the influence of new media, such as the Internet or mobile telephones, which contribute to an increasing digitalisation of society during the last years. The results of the growing digitalisation are changes in the consumer behaviour, new devices and also new sales channels. Supply and demand of music products is greater today than ever before; however, the music industry generates only little capital because of illegal downloads and small revenues of the digital music market (Thurner, 2010, pp.5). In the course of the digitalisation, new media plays a big role. Like Peter R. Scott and Mike Jacka put it: “social media is the set of Web-based broadcast technologies that enable the democratization of content, giving people the ability to emerge from consumer of content to publishers” (Scott and Jacka, 2011, pp.5). Due to social media, people have the opportunity to communicate with people all over the world, to share pictures, videos, and audio files (Safko and Brake, 2009, pp.6). Interesting songs or videos are going to spread rapidly from YouTube within social networks like Facebook and Twitter. Therefore, unknown artists can become stars overnight (Urbanowizc, 2013). The digitalisation and social media have changed the framework of the music industry and because of that the management topics of the music companies changed as well. This assignment identifies and discusses the management topics a company has to deal with in the music industry in the digital age. In chapter one the author explains the new framework of the web 2.0 and therefore the changing consumption habits of the consumer. Also the paper identifies the changes of the consumption of music by social media. In chapter two in the scope of this assignment, old and new communication models will be presented and analysed. Also the important management topics will be explained and further the effect on the music industry will be established. For exemplification of both subjects the author makes use of the company Pandora Internet Radio.
Inhaltsangabe:Problemstellung: Über das digitale Fernsehen wird im Moment viel diskutiert. Für viele scheint die Einführung des digitalen Fernsehens die dritte Phase in der Entwicklung des europäischen Fernsehens einzuläuten. Nach dem Monopol der Staaten über das Fernsehen kam es in den 80er Jahren überall zum dualen Rundfunk, und nun wird langsam aber sicher in ganz Europa das digitale Fernsehen lanciert. Europäische Medienforscher sehen das digitale Fernsehen als das Fernsehen der Zukunft an: „On ne sait pas qui de la télévision ou de l ́ordinateur, du câble, du satellite ou d ́autres techniques de diffusion vont l ́emporter. On ne connaît pas l ́avenir audiovisuel, mais tout ce que l ́on sait c ́est que cet avenir sera numérique1“ Das digitale Fernsehen in Europa entwickelt sich mit sehr unterschiedlicher Geschwindigkeit. Internationale und nationale Medienallianzen werden heute angekündigt und morgen wieder auf Eis gelegt, weil sie sehr oft auch gegen das Kartellrecht der EU verstoßen. Deshalb ist es sehr spannend zu sehen, wie sich das in den Kinderschuhen steckende digitale Fernsehen in Europa entwickelt. Schätzungen zufolge erreicht das digitale Fernsehen weltweit mit den fünf größten Märkten in den USA, Deutschland, Frankreich, England und Japan im Jahr 2005 ungefähr 100 Mio. Haushalte2. Eine Studie der EU zeigte, dass der europäische audiovisuelle Markt der wachstumsreichste und auch dynamischste weltweit3 ist. Die USA haben in ihrem Broadcasting Act von 1996 schon den Übergang in das digitale Zeitalter in Amerika eingeläutet. Wie in fast allen Medienbereichen spielen die USA eine Vorreiterrolle. Schon früh haben sie die Möglichkeiten dieser neuen Technologie erkannt und die rechtlichen Rahmenbedingungen geändert, um das digitale Fernsehen zu fördern. Sicherlich wird es auch in Europa früher oder später zu einem Übergang vom analogen zum digitalen Fernsehen kommen. Frankreich wird hierbei voraussichtlich eine sehr bedeutende Rolle spielen, da es die Franzosen sehr früh verstanden haben, auf technische Innovation und internationales Engagement zu setzen. Deshalb könnte das digitale Fernsehen sehr schnell eine mächtige Stellung am französischen und dem sich bildenden europäischen Rundfunkmarkt einnehmen. Da ich von einer sehr interessanten Entwicklung für das digitale Fernsehen in Frankreich überzeugt bin, soll in dieser Arbeit der französische Markt für das digitale Fernsehen vorgestellt werden. Der Schwerpunkt liegt hier in den [...]
Diplomarbeit aus dem Jahr 2007 im Fachbereich Medien / Kommunikation - Medienökonomie, -management, Note: 1,6, Ruhr-Universität Bochum (Fakultät für Wirtschaftswissenschaft), Sprache: Deutsch, Abstract: Die vorliegende Arbeit identifiziert und analysiert den Künstler als Unternehmer auf Basis der sich unter dem Dach der Marktprozesstheorie befindlichen Ansätze von Schumpeter, Mises, Kirzner und der „Competence-based Theory of the Firm“ (CbTF) in einem von hoher Dynamik geprägten Umfeld der Musikbranche und betrachtet speziell die Kooperation als mögliche Strategie zur Sicherung der aktuellen und zukünftigen Wettbewerbsfähigkeit des Künstlers als Unternehmer. Es wird zunächst ein differenzierteres Bild des Künstlers gegeben und die Bedeutung der Musikmarke als Marktwert herausgestellt. Daraufhin wird das traditionelle Umfeld der von physischer Distribution geprägten Musikindustrie aufgezeigt und die Position des Künstlers innerhalb der Wertschöpfungskette bestimmt. Es wird beschrieben, wie die oligopolistische Marktmacht der sogenannten „Majors“, der vier großen Tonträgerunternehmen, durch die Digitalisierung und Vernetzung geschwächt wird und Markteintrittsbarrieren gesunken sind. Im digitalen Musikmarkt bieten sich Möglichkeiten für Künstler wie auch für branchenfremde Akteure eine (Dis-)/(Re-)Intermediation zu vollziehen. Anhand eines Fallbeispiels der allein durch Downloads in den britischen Charts erfolgreichen Band Koopa wird diese Chance anschließend verdeutlicht. Es zeigen sich viele Künstler als Unternehmer und einige Stars verfügen über sehr ausgeprägte unternehmerische Fähigkeiten, die in dieser Arbeit detailliert herausgestellt werden. Im Anschluss werden Kooperationen vor theoretischem Hintergrund genauer untersucht und ihre Eignung als Mittel zur Schließung von Ressourcen- und Kompetenzlücken und zur Wahrung der Flexibilität im Hinblick auf zukünftige Marktlagen betont. Dies wird anhand der Fallbeispiele Last.fm für die Vermarktung, SNOCAP für die Distribution und MySpace für die Gewinnung möglicher zukünftiger Kooperationspartner von Künstlern als Unternehmer mit praktischem Bezug herausgestellt. Zum Abschluss folgt eine kurze Darstellung zwei weiterer möglicher Kooperationsmotive mit Vorschlägen zu ihrer Lösung.
Inhaltsangabe:Einleitung: Photorealistic Human Character Design im Bereich von 3D-Produktionen schafft neue Möglichkeiten der Simulation der Wirklichkeit in virtuellen Anwendungen. Die Begeisterung für neue Generationen fotorealer Computerspiele oder die mögliche Umsetzung aufwendiger Actionszenen in Kinofilmen wird erst durch den Einsatz real wirkender Darsteller ermöglicht. Ein Meilenstein in der filmischen Umsetzung ist die Matrix-Trilogie . Viele Szenen wurden in diesem Film sehr wirklichkeitsnah durch 3D-Applikationen generiert. Ohne den Einsatz des Character Designs und dem akribischen Detailbewusstsein für Bewegungsabläufe und der Schaffung einer Illusion, die die Wirklichkeit sehr überzeugend darstellt, wäre der Film in der angestrebten Faszination und Glaubhaftigkeit nicht umsetzbar gewesen. Um ein solches Maß an Qualität zu gewährleisten ist es notwendig, die Natur in ihrer Komplexität virtuell darzustellen. Die Nachempfindung der Eigenschaften der Natur im Schaffungsprozess fotorealer computergenerierter Bilder stellt daher eine außerordentliche Herausforderung dar. Das menschliche Auge nimmt in der realen Welt eine Vielzahl an Informationen auf, die nicht bewusst bis in jedes Detail wahrgenommen werden. Diese Details müssen im 3D-Design umgesetzt werden, um überzeugende, realistische Bilder zu generieren. Im Besonderen wird diese unbewusste Wahrnehmung im täglichen Umgang mit Mitmenschen verdeutlicht. Der Mensch ist perfekt auf die natürlichen Bewegungen und Formen des menschlichen Gesichtes sensibilisiert. Kaum eine Situation wird leichter verstanden als die Emotionen des Gegenübers, die durch Expressionen in den Gesichtszügen definiert sind. Der Mensch ist in der Lage, auf emotionaler Basis, ohne Worte, von Angesicht zu Angesicht zu kommunizieren. Absichten, Gefühle und Meinungen können allein durch verschiedene Gesichtszüge beschrieben werden. Diese Eigenschaften stellen demnach für die 3D-Reproduktion eines Human Characters hohe Anforderungen an die Detailgenauigkeit der modellierten Geometrie und der Texturinformation der Haut. Bereits kleine Abweichungen des gerenderten Bildes werden vom Betrachter erkannt. Bei computergenerierten Bildern fallen oft Abweichungen oder Fehler auf, welche im ersten Moment nicht genau beschrieben werden können. Es ist jedoch genau definierbar, was an diesem Bild realistisch aussieht und was nicht. Für diese Erkenntnis ist es nicht von Bedeutung, ob ein geschultes Auge vorhanden ist, denn jeder [...]
Inhaltsangabe:Einleitung: »Nach zehn mageren Jahren geht es jetzt endlich los mit den mobilen Services«, sagte die Leiterin des Arbeitskreises M-Commerce im Verband der deutschen Internetwirtschaft, im April 2007. Diese Einschätzung scheint sich laut aktuellen Studien zu bestätigen. Damit entstehen nicht nur für Mobilfunkanbieter und Endgeräte-Hersteller neue Möglichkeiten. Auch Anbieter von Inhalten wie zum Beispiel Verlage haben nun die Chance neue Herausforderungen anzunehmen. Sie können sich mit mobilen Angeboten auf einem neuen Markt positionieren beziehungsweise ihre bestehende Marktpräsenz um eine mobile Komponente erweitern. Die neue Technologie, die den Anbietern nun erlaubt ihre Inhalte auf eine neue Art weiter zu verwerten und ihre Kunden – zumindest theoretisch – an jedem beliebigen Ort zu erreichen, ist aufgrund mehrerer Entwicklungen möglich geworden: So wurde der Mobilfunk in mehreren Generationen bis zum aktuellen UMTS immer weiter verbessert und leistungsstärker. Daneben entstanden zunehmend neue Funktionen wie Bluetooth oder MMS, die in die mobilen Telefone integriert wurden. Die Integration bisher getrennter Geräte wie MP3-Player oder Kamera machen das Mobiltelefon zunehmend zu einem Universal-Gerät. Dies alles hatte zur Folge, dass das Mobiltelefon zum ständigen Begleiter wurde. Diese Entwicklung sollte nicht vergessen werden, denn erst dadurch ist eine ständige Erreichbarkeit sowie ein permanenter Zugriff auf mobile Leistungen möglich. Aufgabe der vorliegenden Arbeit ist es, die Grundlagen des »Mobile Commerce« darzustellen und damit speziell für Inhalte-Anbieter wie Verlage einen Überblick in das Thema bieten. Dazu werden zunächst die Merkmale des Mobile Commerce aufgeführt. Durch die anschließende Kategorisierung der Anwendungsbereiche wird ein Überblick über die Möglichkeiten für mobile Angebote, die der Mobile Commerce enthält, geboten. Ein Blick auf die Entwicklung des technischen Fortschritts sowie eine Analyse der bisherigen Marktentwicklung zeigen, warum gerade jetzt der Mobile Commerce ein wichtiges Thema zu werden verspricht. Mit der Vorstellung unterschiedlicher mobiler Bezahlverfahren sowie verschiedener Erlösmodelle wird auch die wirtschaftliche Perspektive des Mobile Commerce abgedeckt und Inhalte-Anbietern Anhaltspunkte zur Entwicklung einer Strategie gegeben. Ein abschließender Blick auf das Thema Sicherheit runden das Grundlagenwissen [...]
Inhaltsangabe:Einleitung: Gegenstand der vorliegenden Arbeit ist eine Untersuchung zur Hörbarkeit von Frequenzunterschieden. Obwohl psychoakustische Untersuchungen erst mit zunehmendem Wissen über akustische Zusammenhänge und der Möglichkeit zur Generierung genauer Stimuli durch die Verwendung analoger und digitaler Elektronik möglich wurden, gab es Untersuchungen zur Tonhöhe schon früh. Bereits im 6. Jahrhundert vor Christus entdeckte Pythagoras, dass die grundlegenden Intervalle der Musik einfachen Zahlenverhältnissen der Länge einer schwingenden Saite entsprechen. Da eine Halbierung der Saitenlänge eine Verdopplung der musikalischen Tonhöhe zur Folge hatte, folgerte Pythagoras daraus, dass die halbe Saite auch doppelt so schnell schwingen müsste. Galileo Galilei beschrieb 1640 den Zusammenhang zwischen der musikalischen Tonhöhe und der Schwingungen pro Sekunde einer Saite und stellte damit den Bezug von Tonhöhe und Frequenz her. Joseph Sauveur formulierte diese Beziehung zwischen Schwingungsfrequenz und Tonhöhe 1701 aus und wies nach, dass Klänge mit einer deutlichen Tonhöhe aus Grundton und Obertönen zusammengesetzt sind. Georg Simon Ohm wendete 1841 als Erster die Fourieranalyse auf akustische Ereignisse an und stellte sein ‘ohmisches Gesetz der Akustik’ vor. Dieses besagte unter anderem, dass der Grundton eines Klanges die Tonhöhe bestimmt. Zustimmung bekam er 1862 von Hermann von Helmholtz, der mit der Resonanztheorie eine physiologische Fourieranalyse von Schallereignissen durch die Basilarmembran postulierte. Auch von Helmholtz war überzeugt, dass der Grundton eines Klanges für dessen Tonhöhe verantwortlich ist. 1924 bewies Harvey Fletcher durch spektrale Filterung, dass sich die Tonhöhe eines Signals, trotz fehlenden Grundtones, nicht ändert. Ende der dreißiger Jahre prägte J. F. Schouten für das Phänomen der fehlenden Grundfrequenz den Begriff Residuum und nahm an, dass der Eindruck der Tonhöhe vor allem von den hochfrequenten Anteilen eines Tones bestimmt wird. Ritsma widerlegte diese Annahme 1962 experimentell und konnte ein Frequenzband zwischen dem dritten und fünften Oberton ausmachen, welches entscheidend für den Eindruck der Tonhöhe ist. Ritsma bezeichnete diesen Bereich als spektrale Dominanz eines Klangs. Schoutens und Ritsmas Ergebnisse wurden dahingehend gedeutet, dass das Gehör die Tonhöhe über die Periodizität eines Signals auswertet. Und das, obwohl Georg von Békesy im Jahr zuvor Helmholtz‘ Theorie der Basilarmembran als [...]
Studienarbeit aus dem Jahr 2006 im Fachbereich Medien / Kommunikation - Film und Fernsehen, Note: 1,7, Philipps-Universität Marburg (Institut für neue deutsche Literatur und Medien), Veranstaltung: Theatralität: Medieninszenierung zwischen Information und Unterhaltung, Sprache: Deutsch, Abstract: „Der Wurm muß dem Fisch schmecken und nicht dem Angler!” 1 Dieses Zitat des ehemaligen RTL-Geschäftsführers Dr. Helmut Thoma fasst dessen Verständnis von Privatfernsehen zusammen und kann symptomatisch für die ganze Riege der privaten Fernsehsender in Deutschland gelten. Denn die privaten Fernsehsender sind abhängig von Werbeeinnahmen und die können wiederum nur durch den Verkauf von möglichst quotenstarker Werbezeit erzielt werden. Es wird also vor allem das gesendet, wovon vermutet wird, dass es bestimmte Zielgruppen mit bestimmbaren Konsumgewohnheiten zu bestimmten Zeiten sehen wollen. Offiziell geben die Sender selbst jedoch andere Sendeziele an. Laut RTL.de ist es beispielsweise das Ziel der Sendung „Die Supernanny“, „eine fundierte Analyse, Besprechung der Erziehungssituation und eine individuelle pädagogische Beratung für die Eltern zu leisteten“ 3 . Denn RTL will nach eigener Aussage „mit diesem Format einerseits den betroffenen Familien eine Hilfestellung bieten, andererseits aber auch dem Zuschauer anhand von unterschiedlichen Fällen Lösungsansätze für Probleme in der eigenen Familie aufzeigen.“ Ob und wie RTL in der „Supernanny“ die Erfüllung dieses Anspruchs mit dem Erzielen einer hohen Einschaltquote und damit eben hoher Werbeeinnahmen verbindet, soll in dieser Arbeit untersucht werden. Dabei soll es primär darum gehen, die theatralen Eigenschaften des Formates herauszuarbeiten, die von der Seite der Produktion eingesetzt werden, um eine möglichst hohe Publikumsresonanz zu erzielen. Basis dieser Hausarbeit ist lediglich die seit September 2004 ausgestrahlte erste Staffel der Serie. Zum einen ist diese bereits als DVD Version verfügbar, und zum anderen hat sich die Sendung über die folgenden zwei Staffeln hinweg stetig verändert. So ist seit der zweiten Staffel neben der diplomierten Sozialpädagogin Katja Salfrank auch eine zweite „Supernanny“ im Einsatz, und seit der dritten Staffel werden in einer Sendung oftmals auch mehrere „Fälle“ behandelt. [...]
Inhaltsangabe:Einleitung: In der heute zunehmend komplexeren Arbeitsumgebung der grafischen Industrie sind verstärkt Standards gefordert, um normierte Übergabepunkte für digitale Daten zu schaffen. Die vorliegende Diplomarbeit erläutert das Portable Document Format (PDF), was dieser Entwicklung Rechnung trägt. Behandelt werden theoretische Grundlagen zu PDF, Definitionen von geschlossenen/offenen Workflows und der beispielhafte Aufbau eines PDF basierten Workflows in der Druckvorstufe. Zu jedem einzelnen Produktionsschritt wird aktuelle Software zu dessen Realisierung vorgestellt. Abschließend sind Beispiele zur Automatisierung solcher individuell abgestimmter Workflows aufgeführt und erläutert. Die Arbeit soll als Orientierungshilfe für Anwender in der Druckvorstufe dienen, die sich diesem Themengebiet nähern wollen. Die große Menge derzeitig vorhandener Informationen zu PDF wurden in ihr aufbereitet und möglichst verständlich dargestellt. Inhaltsverzeichnis:Inhaltsverzeichnis: 1.Einleitung7 2.Grundlagen zum Format PDF8 2.1Format PostScript9 2.1.1Entwicklung PostScript11 2.1.2Vor-/Nachteile PostScript14 2.2PDF Reference16 2.2.1Adobe Imaging Model16 2.2.2General Properties18 2.2.3PDF and PostScript21 2.3Entwicklung des PDF Formates22 2.3.1Acrobat 122 2.3.2Acrobat 223 2.3.3Acrobat 323 2.3.4Acrobat 424 2.3.5Acrobat 525 2.4Entwicklung PDF/X26 2.5CIP4 und JDF29 2.6Grenzen von PDF30 3.Workflow Konzepte31 3.1konventioneller Workflow31 3.2separierter/composite Workflow32 3.3PDF Workflow33 3.3.1geschlossener PDF Workflow33 3.3.2offener PDF Workflow35 4.PDF Workflow Komponenten37 4.1PDF Erstellung38 4.1.1Distiller38 4.1.2PDF Creator42 4.1.3PDF Writer42 4.1.4PDF Maker43 4.1.5Zusammenfassung / Bewertung44 4.2PDF Preflight/Analyse45 4.2.1pdfInspektor45 4.2.2InProduction46 4.2.3PitStop Professional48 4.2.4Acrobat49 4.2.5Zusammenfassung/Bewertung50 4.3PDF Editierung51 4.3.1Quite a Box of Tricks51 4.3.2PitStop Professional52 4.3.3Acrobat53 4.3.4Zusammenfassung / Bewertung53 4.4PDF Korrektur/Signatur54 4.4.1Korrekturlauf54 4.4.2FDF Korrektur55 4.4.3digitale Signatur55 4.4.4Zusammenfassung/Bewertung56 4.5PDF Farbkorrektur57 4.5.1Grundlagen57 4.5.1.1Definition Colormanagement57 4.5.1.2International Color Consortium58 4.5.1.3Referenzfarbraum59 4.5.1.4Farbprofile59 4.5.1.5Color Management Modul60 4.5.1.6Rendering Intents60 4.5.2Distiller 4/5 & PDF Creator 262 4.5.3Quite a Box of Tricks63 4.5.4PitStop [...]
Studienarbeit aus dem Jahr 2012 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,3, Hochschule RheinMain - Wiesbaden Rüsselsheim Geisenheim, Sprache: Deutsch, Abstract: Second Life, Die Sims und World of Warcraft; Angry Birds und Farmville; Das Spiel des Lebens und die Fußballweltmeisterschaft: Die Welt der Spiele ist nicht nur besonders vielseitig, sondern auch unheimlich wandlungsfähig. Haben digitale Spiele einst das echte Leben nachgeahmt, lassen innovative Unternehmen heute durch den Einsatz moderner Technologie, die Realität wie ein Spiel aussehen. Sicherlich hat jeder beim Einkaufen schon einmal die Frage gestellt bekommen: Sammeln Sie Punkte? Was heute unter sogenannten Loyalitätsprogrammen bekannt ist, erreicht im Zeitalter der Spielemechanismen unter dem Schlagwort Gamification ein nächst höheres Level. Das Ziel von Unternehmen ist es, Mechanismen aus Computerspielen so gezielt einzusetzen, dass eine Verhaltensänderung sowie ein höherer Grad an Engagement beim Kunden erreicht wird. Betrachtet man die Zahlen des Marktforschungsinstituts Newzoo, wird schnell ersichtlich, dass Spiele heute in der Mitte der Gesellschaft angekommen und allgegenwärtig sind. Den Analysten zufolge, gibt es 36 Mio. aktive Spieler in Deutschland, die pro Tag insgesamt 47 Mio. Stunden spielen. Weiterhin wurde errechnet, dass im Jahr 2011 allein in Deutschland 4,6 Mrd. Euro für Spiele ausgegeben wurden. Führt man sich dies vor Augen, ist es laut Zukunftsforscherin Nora Stampfl kein Wunder, dass Unternehmen die besondere Macht der Spiele für sich entdeckten. Die Macht, Spieler in den Bann zu ziehen und deren Engagement zu wecken, was wiederum den Weg zu höherer Kundenloyalität ebnet. Genau das wird in Zeiten des Internets und der Informationsüberflutung immer wichtiger, da Unternehmen die Fähigkeit verloren haben, den Kunden einzureden, was sie brauchen. Gabe Zichermann, Organisator des Gamification Summit, sagte 2011: “Games are the only force in the universe that can get people to take actions that are against their self-interest, but in a predictable way.”
Studienarbeit aus dem Jahr 2002 im Fachbereich Medien / Kommunikation - Film und Fernsehen, Note: 1,3, Ruhr-Universität Bochum (Medienwissenschaften), Veranstaltung: Fernsehen und Digitale Medien, Sprache: Deutsch, Abstract: In der vorliegenden Hausarbeit beschäftige ich mich mit dem Thema „Hackerkultur“. Im Mittelpunkt meiner Arbeit steht das Buch „Auf digitalen Pfaden: die Kulturen von Hackern, Programmieren, Crackern und Spielern“, u.A. von Roland Eckert. Interessante Informationen über den Hacker als Mensch bot mir das englische Original „The New Hacker ́s Dictionary“, zusammengestellt von Eric S. Raymond. Um den rechtlichen Aspekt abzudecken, befasste ich mich mit der Dissertation zur Erlangung der Doktorwürde (Jur. Fakultät d. Universität Passau) von Kerstin Müller „Hacker und Computer-Viren im Internet – eine strafrechtliche Beurteilung“. Tiefgreifendere Informationen bot mir das Buch „Die Wunschmaschine – Vom Entstehen der Computerkultur“ von Sherry Turkle. Die einen halten sie für kriminelle Datendiebe und Spione, die anderen sehen in ihnen eine Art „elektronischen Robin Hood“ (Turkle 1984, 290), der Informationen frei zugänglich macht. Hacker sind umstrittene Computernutzer, die jedoch oft zu Unrecht beschuldigt werden. Feine Unterschiede zwischen Hackern und Crackern, zwischen Ethik und Geldgier auf dem elektronischen Datenhighway gilt es zu beachten. Diese Einführung in die Welt der Hacker, in die Hackerkultur, soll helfen, diese Menschen, die für und mit der Maschine Computer leben, zu verstehen und ihr Handeln ein wenig nachvollziehen zu können.
Studienarbeit aus dem Jahr 1999 im Fachbereich Medien / Kommunikation - Film und Fernsehen, Note: gut, Universität Salzburg (Institut für Kommunikationswissenschaft), Sprache: Deutsch, Abstract: Um es dem Leser dieser Analyse ein wenig leichter zu machen, sich in eine komplexe Serienwelt wie die des MacGyver hineinzuversetzen, ist es nötig, gleich am Anfang die wesentlichen Fakten darzustellen, die dann im Laufe dieser Arbeit vertieft und erweitert werden. MacGyver, der Titelheld der Serie, ist eine Art moderner James Bond, ein Indiana Jones, der darauf bedacht ist bzw. sein muß, mit den ihm zur Verfügung stehenden Mitteln hauszuhalten. Er braucht nur sein Schweizer Messer und was in nächster Nähe so herumliegt und er kann einen Konvoi voller Bösewichte stoppen, einen Hubschrauber vom Himmel holen oder eine Geisel aus der uneinnehmbarsten Festung befreien. Wenn alle anderen Möglichkeiten erschöpft sind, um das anstehende Problem zu lösen, wird der Auftrag an MacGyver übergeben (man weiß nie so genau, wer den Auftrag gibt), und er hat noch nie eine Herausforderung angenommen, der er nicht gewachsen gewesen wäre (vgl. Merril l). Das Nette an MacGyver ist, daß er keine Waffen trägt, geschweige denn sie benutzt. Wenn es zu einer Schießerei kommt, läuft er meistens wie von der Tarantel gestochen herum, strickt sich aus Spinnweben eine kugelsichere Weste oder bastelt sich aus ein paar Büroklammern ein Fluchtfahrzeug. Das ist natürlich übertrieben – aber nicht sehr. Auf das Thema „Gewaltlosigkeit“, das im Umfeld von Kindern und Jugendlichen natürlich ein sehr wichtiges ist, wird später im Kapitel 1.5 noch näher eingegangen. Außer daß er verhältnismäßig gutaussehend ist, was ihm natürlich bei seinen weiblichen Fans zahlreiche Bonuspunkte einbringt, ist Richard Dean Anderson, der Darsteller des MacGyver, auch sonst genau der richtige Mann für die Rolle des klugen, oft ein bißchen sarkastischen Abenteurers, der bei seinen Aufträgen seinen Rucksack nicht für Sachen, die er mitnimmt, trägt, sondern für Sachen, die er unterwegs aufliest. Seine Rolle bedarf zwar keiner schauspielerischen Glanzleistungen, aber Anderson, ein TV-Veteran aus verschiedenen US-amerikanischen Serien, schafft es, sie mit genau dem richtigen Quäntchen Lebhaftigkeit zu spielen. Die Produzenten wissen ebenfalls genau, was sie machen: geniale und zynisch – scharfe Texte, zielbewußte Regie und eindrucksvolle Spezialeffekte (vgl. Merrill).
Bachelorarbeit aus dem Jahr 2012 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1, Universität Salzburg (Fachbereich Geschichte), Veranstaltung: Zeitgeschichte, Sprache: Deutsch, Abstract: "Google is watching you", ob wir es nun wollen oder nicht. Der Suchmaschinen-Gigant mit Hauptsitz in Mountain View, Kalifornien ist für die Menschen beinahe über Nacht unentbehrlich geworden. Google scheint allwissend, allmächtig und allgegenwärtig. Darüber hinaus behauptet das Unternehmen wohlwollend zu sein, was sich auch im ursprünglichen Firmenmotte "Don't be evil" ausdrückt. Die meisten Menschen bewundern und respektieren Google als eine wunderbare IT-Erfolgsgeschichte, als einen Wegweiser durch das Internet und als ständigen Wegbegleiter und Helfer. Da stellt sich aber die Frage: Was gewinnen wir und was verlieren wir dadurch, dass wir Google erlauben, die Linse zu sein, durch die wir die Welt betrachten? Häufig wird die Idee angesprochen, dass der Verlust der Privatsphäre der Preis ist, den wir für die Handlichkeit des Internets bezahlen müssen. Dahinter steckt sicher ein Fünkchen Wahrheit. Aber die wenigsten von uns sind sich darüber im Klaren, in welchem Ausmaß wir über das Internet Details über unsere Identität und unser Leben preisgeben. Ob wir nun mit der möglichen Beeinträchtigung unserer Privatsphäre einverstanden sind oder nicht, so bleibt darüber hinaus noch, festzuhalten, dass dies bei weitem nicht die einzige und auch nicht die beunruhigendste Gefahr ist, welche vom heutigen Internet ausgeht Mathematiker und Computerwissenschaftler arbeiten ständig daran, die Algorithmen zur Datenerhebung im Internet weiterzuentwickeln und zu verbessern. Auf diese Art und Weise decken sie neue Wege auf, um vorherzusagen, wie Menschen reagieren werden, wenn sie Online mit Informationen oder anderen Reizen konfrontiert sind. Diese Mathematiker und Wissenschaftler lernen im Moment nicht nur, wie sie uns identifizieren, sondern auch, wie sie uns manipulieren können.
Masterarbeit aus dem Jahr 2008 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,3, Steinbeis-Hochschule Berlin (SMI Berlin), Veranstaltung: Executive Medien MBA, Sprache: Deutsch, Abstract: The mobile market is developing from pure voice telephony to a “transport commodity” to transfer convergent data and content. In the future, voice telephony will only be part of a multitude of revenue models in the mobile sector. In this connection, mobile portals are gaining more and more importance. On one hand, they promise to be an additional source of income in the era of media convergence for providers, publishers, and con-tent providers. On the other hand, demand is growing for new advertising options from the advertising industry. Advertising in particular has recognised that mobile messages are more targeted and can be addressed almost without any wasted coverage. Cross-media advertising platforms are being sought above all, such as this one: Audi advertised the Q7 in a French magazine. A mobile code was integrated in the adver-tisement with which the user could load the emotionally charged advertising film about the Audi Q7 on a mobile phone. As a side effect, Audi was able to collect mobile tele-phone numbers of potential customers through profiling those who have an affinity for the brand. According to a study by the Marketing-Börse, 31.6% of all surveyed companies already use mobile marketing and 37.5% want to increase their activities in the mobile market-ing sector even more. And, this was mainly to the detriment of advertising banners in the Internet (17%). So far, all stakeholders in the market held back with portals in the special interest area of “Cars”. The reason for this is too high fees for data transfer by the providers. Mobile phone manufacturer Nokia, which is making a massive push into the content sector, reports of a downright user boycott of using mobile route planners. Nokia strategist Michael Warm says: “Users load their routes on their mobile phones in the Internet free of charge and then start the navigation, rather than navigating online for Euro 1.99." Manager of autobild.de, Raoul Hess, sees the same problem. He sees the same readiness to pay for mobile portals as there is for the classical Internet: “Be-sides for games and ringtones, users are not prepared to pay.”
Studienarbeit aus dem Jahr 2009 im Fachbereich Medien / Kommunikation - Film und Fernsehen, Note: 1,7, Martin-Luther-Universität Halle-Wittenberg (Institut für Medien, Kommunikation und Sport), Veranstaltung: Medienanalyse I, Sprache: Deutsch, Abstract: Black Hawk Down ist eine oft nicht-erwähnte und vergessene Aktion in der Kriegsgeschichte. Der Film aus dem Jahr 2001 ist eine Postproduktion des Buchs von Mark Bowden. Der Regisseur Ridley Scott ließ sich vom Bowdens Buch inspirieren und vom Produzenten Jerry Bruckheimer unterstützen. Ridley Scott war schon bei anderen sehr bekannten Filmen dabei. Um einige wenige zu nennen: Alien (1979), Blade Runner (1985), Gladiator (2000), Hannibal (2001) (Wikipedia 2009) und viele weitere. Bei Jerry Bruckheimer wird die Filmografie nicht kürzer, im Gegenteil sogar. Hier einige Beispiele: Armageddon (1998), Der Staatsfeind Nr. 1 (1998), Pearl Habor (2001), Fluch der Karibik (2003)(Wikipedia 2009) und viel mehr. „Eine Analyse kann verschiedenen Zwecken dienen“(Mikos 2003, S. 37), Zum einen durch die Struktur des Films den Erfolg bei bestimmten Personengruppe zu erklären oder um Hypothesen zum Fernsehen und Film zu bestätigen oder zu widerlegen (Mikos 2003). Also eine Analyse kann mehreren Zwecken dienen, es kommt auf den Ansatz der Analyse an. Mikos nennt das Erkenntnisinteresse (Mikos 2003). Diese richtet sich in den Ebenen aus:  „Inhalt und Repräsentation  Narration und Dramaturgie  Figuren und Akteure  Ästhetik und Gestaltung  Kontexte“ (Mikos 2003, S. 39) Weiter muss gesagt werden, dass man im Film viel analysieren kann, wie Kameraführung, Belichtung, Akteure, usw. . Ich jedoch beschränke mich auf den Ton. Die Basis für die Analyse bildet Hickethiers Ansatz, der den Tonin „Geräusche, Musik und Sprache (Hickethier 2007, S. 91) splittet. Bei der Analyse gehe ich nach den 14 Schritten von Mikos Design vor (Mikos 2008). Also erst das allgemeine Erkenntnisinteresse, dann Anschauen des Materials, historische und theoretische Reflexion, die Konkretisierung des Erkenntnisinteresses, Fragestellung, Bildung des Korpus, Hilfsmittel festlegen, Daten sammeln, Daten beschreiben, es folgt die Analyse, dann die Bewertung/ Auswertung, Evaluation I, Evaluation II und die abschließende Präsentation. (Mikos 2008)
Inhaltsangabe:Zusammenfassung: Was ist IMAX? Die Wortschöpfung IMAX leitet sich aus dem englischen Begriff Image Maximum ab und offenbart somit zugleich den Ansatz dieses Mediums: Auf einer überdurchschnittlich großen Leinwand soll das maximale Seherlebnis geboten werden. Die vorliegende medienwirtschaftliche Untersuchung gibt einen detaillierten Einblick in die aktuelle internationale Spielstätten- und Programmstruktur von IMAX Kinos, mit einem Schwerpunkt auf den deutschen Markt. Als Grundlagen werden sowohl die Entstehungs- und Firmengeschichte der kanadischen IMAX Corporation, aber auch verschiedene technische Grundparameter der IMAX Film- und Projektionstechnik in Zusammenhang mit ihrer produktionswirtschaftlichen Bedeutung behandelt. Am Ende der Arbeit findet sich eine Prognose für die Zukunft des Formates IMAX, welche aktuelle medienwirtschaftliche Tendenzen und technische Neuerungen, wie z.B. 3D Kino oder den Transfer von regulären Kinofilmen in das IMAX Format berücksichtigt. Inhaltsverzeichnis:Inhaltsverzeichnis: 1.EINLEITUNG1 2.DIE IMAX CORPORATION GESTERN & HEUTE 2.1Die IMAX Corporation heute3 2.1.1Entwicklung von Basistechnologie3 2.1.2Filmherstellung (Eigenproduktion)4 2.1.3Betrieb von Spielstätten4 2.1.4Verleih & Verkauf der Basistechnologie4 2.1.5Lizenzierung von IMAX Systemen5 2.1.6Investition in neue Basistechnologie5 2.2Überblick: Historie des IMAX Kinos5 3.AKTUELLE MEDIENWIRTSCHAFTLICHE BETRACHTUNG 3.1Spielstättenstruktur: Verbreitung & Standorte7 3.2Investitionsvolumen bei IMAX Kinos11 3.3Erlösstruktur bei IMAX Kinos12 3.4Laufende Kosten von IMAX Kinos13 3.6Sonderform: IMAX Dome13 3.7Sonderform: 3D IMAX14 3.7Traditionelle Programmstruktur: Edutainment17 4.ENTWICKLUNGEN & TENDENZEN 4.1Programmstrategie & -philosophie21 4.2Der Hollywood-Kinofilm im IMAX Kino22 4.2Technische Kompatibilität & Formattransfer 4.3.1Kompatibilität 35mm à 15/70mm23 4.3.2Das IDMR Verfahren24 4.3.3Audio Remastering für DTAC25 4.4Auswirkungen auf die Spielstättenstruktur26 4.5Die digitale Zukunft von IMAX26 5.PROGNOSE: CHANCEN FÜR DIE ZUKUNFT?28 6.ANHANG32 6.1Technische Eigenschaften des IMAX Kinos 6.1.1IMAX 15/70mm Filmtechnik32 6.1.2IMAX Spielstättenarchitektur34 6.1.3IMAX Projektionstechnik35 6.1.4IMAX DTAC Kinotontechnik36 6.1.5Technisch bedingte Kostenparameter36 6.2Sonstige Abbildungen38 6.3Total Box Office Übersicht39 7.QUELLENVERZEICHNIS40
Inhaltsangabe:Einleitung: Musikfernsehen ist eines der wichtigsten Massenmedien für Jugendliche und junge Erwachsene. Von ihm gehen Impulse in Bereichen wie Musik, aber auch Mode, Stil und Lebenswandel, Politik und Konsum aus. Es liefert Gesprächsstoff und Produktinformationen ebenso wie eine Klang- und Bildtapete für Jugendzimmer und junge Wohngemeinschaften. MTV als der international bekannteste Vertreter des Musikfernsehens ist längst mehr als nur ein weiterer Fernsehsender im überfüllten Kabelnetz. Es ist ein allumfassender Vermittler der populären Kultur und wie die Washington Post formulierte das vielleicht einflußreichste kulturelle Einzelprodukt der 80er Jahre. Es ist zu einer kulturellen Ikone geworden. Zu einem Markenzeichen, das für Postmoderne steht, für Hedonismus und Jugendkultur. Für schnelle Bildschnitte und den Starkult der pompösen Video Music Awards , aber auch für das soziale Bewußtsein von Rock The Vote . Seit 1993 stehen sich in Deutschland die Konkurrenten MTV und VIVA gegenüber begleitet von ihren Ablegern MTV2 und Viva Zwei. Der deutsche Musiksender VIVA ging 1993 auf Sendung und verfügt über die finanzielle Unterstützung mehrerer großer Plattenfirmen und Medienkonzerne (namentlich AOL Time Warner, EMI und Polygram). Der Konkurrent MTV Deutschland gehört (wie alle anderen regionalen MTV-Programme) zur VIACOM-Gruppe und begann in den letzten Jahren sich mehr und mehr vom paneuropäischen Rahmenprogramm aus London (MTV Europe, das seit 1987 auf Sendung ist) zu verabschieden. Deutschland ist nach den USA und Japan der drittgrößte Musikmarkt der Welt und der größte Europas. Und obwohl es viele andere Möglichkeiten gibt, Musik zu bewerben und zu verbreiten (wie beispielsweise Radio, Printmedien, Clubs und Livekonzerte) ist Musikfernsehen heute eines der wichtigsten Medien um Musik einem Massenpublikum vorzustellen und zu verkaufen. Gleichzeitig mehrt sich seit einigen Jahren Kritik an den klassischen Musikfernsehprogrammen: Die langen Strecken von kurz anmoderierten Videoclips, die den Sender MTV berühmt gemacht haben, sind weitestgehend aus dem Programm verschwunden und durch Spiel- und Talkshows, Reportagen und Magazinsendungen ersetzt worden. Die Plattenfirmen fürchten, ihren Einfluß auf das Programm zu verlieren und weniger ihrer Künstler im Programm plazieren zu können und zahlreiche Zuschauer beschweren sich über die Zunahme nichtmusikalischer Programme. Vor diesem Hintergrund ist die Entwicklung neuer [...]
Inhaltsangabe:Einleitung: Knapp zwei Drittel der Deutschen, also 52,7 Millionen, sind online (TNS Infratest: o.S.). Ganz klar: Das Internet ist aus der heutigen Zeit nicht mehr wegzudenken. Ebenso wenig wie sein erfolgreichstes Kind namens Facebook, das inzwischen sogar Google in der Verweildauer überholt hat (sueddeutsche.de 2011: 1). Rund ein Viertel der deutschen Bevölkerung sind bereits aktive Mitglieder in diesem sozialen Netzwerk (Fittkau & Maaß 2011: o.S.). Auf keiner anderen Seite des Internets verbringen die Deutschen mehr Zeit, beteiligen sich aktiver am Inhalt oder nutzen es häufiger über ihr Smartphone. Ein Ende des Wachstums ist noch nicht in Sicht. So hat Facebook nach eigenen Angaben bereits über 800 Millionen aktive Nutzer zu Beginn dieser Arbeit im März 2011 waren es noch 100 Millionen weniger (vgl. facebook.com a): o.S.). Facebook ist damit bereits sieben Jahre nach seiner Gründung weltweit zur wichtigsten Kommunikationsplattform im Internet geworden. Wie stark die Auswirkungen das Leben der Menschen beeinflusst, zeigen folgende Beispiele: Im Zuge derRevolutionen in den arabischen Ländern galt Facebook als eines der wichtigsten Werkzeuge der Aufständischen. Es half bei der Koordination und Kommunikation der Aktionen und ermöglichte so den Zusammenschluss der Bewegung. Als der ehemalige Politiker Karl-Theodor zu Guttenberg am 1. März 2011 wegen seiner Plagiatsaffäre von seinem Amt als Verteidigungsminister zurücktreten musste, schlossen sich seine Anhänger in einer Facebook-Bewegung zusammen. Noch acht Monate später hat die Gruppe Gegen die Jagd auf Karl-Theodor zu Guttenberg über 337.000 Anhänger. Angela Merkel kommt im Vergleich gerade einmal auf 115.000 (Stand: 14.11.2011). Wie schnell sich Nachrichten über Facebook verbreiten, musste auch die 16-jährige Thessa aus Hamburg miterleben. Sie hatte zu ihrem 16. Geburtstag auf Facebook aus Versehen öffentlich eingeladen. Die Folge: Über 1.000 fremde Personen kamen zum Wohnhaus ihrer Eltern, Scharen von Journalisten und ein Großaufgebot der Polizei inklusive (stern.de 2011: 1). Die Beispiele zeigen, wie schnell und unmittelbar Bewegungen sich über Facebook vernetzen und ihre Nachrichten verbreiten. Diese Entwicklung spielt für die Medien eine große Rolle. Über Jahrzehnte hinweg waren es die Massenmedien, die über die Auswahl der Nachrichten entschieden und sie verbreiteten. Diese Rolle haben sie nicht gänzlich verloren. Aber die Spielregeln in der digitalen Weltsind andere [...]
Inhaltsangabe:Einleitung: Zum Zeitpunkt dieser Arbeit ist es schon über 70 Jahre her, dass Walter Benjamin seinen Aufsatz Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit veröffentlichte. In dieser Zeit wurde das Werk vielfach besprochen und ihm folgte eine große Menge an medien- und kunstwissenschaftlicher Literatur. Es ist nicht das Motiv dieser Arbeit, diese Menge zu ergänzen. Der Text Benjamins wurde deshalb als thematischer Ausgangspunkt gewählt, weil er zu einer Zeit verfasst wurde, in der, sehr ähnlich der Gegenwart, ein durch technologischen Fortschritt ausgelöster Wandel statt fand. Im Gegensatz zu Benjamin richtet diese Arbeit den Schwerpunkt jedoch nicht auf die unmittelbare Wahrnehmung von Kunstwerken, sondern auf die Nutzung von Reproduktionstechnologien, die in einer Veränderung der Wahrnehmung resultieren kann. Dazu sollen zwei Leitgedanken aus dem Aufsatz Benjamins heraus gefiltert und als roter Faden dieser Arbeit nutzbar gemacht werden. Im Rückblick wirkt der Aufsatz Benjamins eher wie ein Versuch die klassischen physischen Künste vor dem überrollenden Erfolg der damals neuen visuellen Projektionsmedien, Photographie und Film, in Schutz zu nehmen. Die Photographie und der Film haben sich jedoch im Verlauf der Moderne zu eigenen Kunstformen entwickelt und sich neben den klassischen Kunstformen in einem Ausdifferenzierungsprozess etabliert. Diese Entwicklung folgte ganz dem Rieplschen Gesetz, das besagt, dass neu auftretende Medien die bereits bestehenden nicht ablösen, sondern sowohl die neuen als auch die alten sich nebeneinander neu ordnen. Dieser Prozess wurde auch von Clement Greenberg am Rande beschrieben, als er die Malerei der Moderne von den realistisch abbildenden Kunstformen durch ihre selbstreferentielle Flächigkeit abgrenzte. Weil sie ihre Hauptfunktion als Abbildungspraxis an die Photographie verloren hatte, war sie dazu gezwungen, sich in einem Prozess der Selbstreflexion neu auszurichten. Es hätte also eigentlich gar keinen Grund für Benjamin geben müssen, die Photographie und den Film als Konkurrenz zur klassischen Kunst zu betrachten, aber so lässt sich aus dem Blick der Geschichte leicht argumentieren. Vom heutigen Stand der Medienwissenschaft aus gesehen, ist Benjamins Aufsatz überholt. Doch auch wenn sich Benjamins Befürchtungen nicht bewahrheiteten, haftet dem Aufsatz auch heute noch eine intuitive Richtigkeit, eine unterschwellige Gültigkeit an. Vermutlich ist diese unbewusste [...]
Essay aus dem Jahr 2009 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 7, Universiteit Utrecht, Veranstaltung: Get Real! Making and Meaning of Computer Generated Images, Sprache: Deutsch, Abstract: Machinima ist die Kombination aus Machine, Animation und Cinema. Bei dieser Erscheinungsform werden Filme mit Hilfe einer Game-Engine erstellt (Wiemker 2009: 1). Dadurch ist es nun auch für den eigentlichen Rezipienten von Kinofilmen möglich, mit einfachen Mitteln selbst einen Film zu erstellen und sich dadurch kreativ und künstlerisch auszudrücken. Machinima ist jedoch ein sehr junger Begriff, der sich stets im Wandel befindet. Im ursprünglichen Format wurden Machinimas nur von Fans produziert und bildeten eine Subkultur (Marino, 2004: 5). Doch inzwischen haben Machinimas größere Popularität erlangt und werden auch für kommerzielle Zwecke genutzt. Zum Beispiel nutzte Die Deutsche Post in ihrem Werbespot When the Postman spits twice Machinima-Technik und gewann sogar beim Europäischen Machinima Festival 2007 in der Kategorie Best Game/Commercial (Albin, 2009). „As in every industry, the producers of computer animation stay competitive by differentiating their products” (Manovich, 1992). Damit hat sich Die Deutsche Post gegenüber ihren Konkurrenten durch Innovation herausgehoben und entsprechend Erfolg geerntet. “In this definition, achieving synthetic realism means attaining two goals: the simulation of codes of traditional cinematography and the simulation of the perceptual properties of real life objects and environments” (Manovich, 1992). Dieses Zitat kann auch auf Machinimas angewandt werden. Auch hierbei werden Objekte und Umgebungen aus dem realen Leben durch eine Game-Engine simuliert und es werden die Gesetze der Kinematografie angewandt, um einen Film zu erstellen. In dieser Arbeit geht es hauptsächlich um die technischen Aspekte von Machinimas. Als erstes soll kurz die technische Entwicklung geschildert werden. Danach werden verschiedene Techniken erläutert, mit denen Machinimas erstellt werden können. Als nächstes werden die Vor- und Nachteile dieses neuartigen Phänomes abgewogen. Den Hauptteil der Arbeit bildet die Beschreibung der Software Moviestorm, welche Machnima-Technik nutzt, um eigene Filme zu erstellen.
Inhaltsangabe:Einleitung: Wohl kaum ein anderes soziales Phänomen entwickelt sich momentan derart schnell und dynamisch wie Online-Communities. Die Entwicklung des World Wide Web und dessen Wahrnehmung in Wirtschaft und der breiten Öffentlichkeit begann zunächst zaghaft mit der Entwicklung einer benutzerfreundlichen Oberfläche Anfang der 1990er Jahre. Erste grafikfähige Webbrowser sorgten dafür, dass nunmehr auch technische Laien Zugang zur Nutzung von Internet-Diensten hatten. Dies wiederum hatte zur Folge, dass eine immer größer werdende Zahl von Unternehmen das kommerzielle Nutzungspotential dieses neuen Mediums erkannte. Ab etwa 1995 gab es brachenübergreifend eine Vielzahl an Firmengründungen, die sich auf das Angebot digitaler Güter und Dienstleistungen spezialisiert hatten die New Economy war geboren. Eine nahezu grenzenlose Euphorie ermöglichte den neu gegründeten Unternehmen eine schnelle und vergleichsweise einfache Beschaffung von Eigenkapital an den nationalen und internationalen Kapitalmärkten. Da die teils sehr hohen Börsenkapitalisierungen dieser Internet-Unternehmen in den wenigsten Fällen durch entsprechend realistisch kalkulierte Unternehmenswerte gerechtfertigt waren, kam es im März 2000 zu Kursstürzen, welche die Spekulationsblase platzen ließen und eine Pleitewelle bei den Internetunternehmen zur Folge hatte. Trotzdem hat sich das World Wide Web (WWW) seit jenem Crash kontinuierlich weiterentwickelt. Resultat dieser Entwicklung ist eine seit etwa 2005 veränderte Wahrnehmung des WWW, welche mit dem Begriff Web 2.0 auch einen Namen bekommen hat. Kern dieser neuen Wahrnehmung des Internet ist vor allem die Tatsache, dass Internet-Nutzer nicht mehr nur Information und Unterhaltung in Form von in Browsern optisch und akustisch dargestellten Binärdaten konsumieren, sondern nun aktiv diese Inhalte mitgestalten und sich einbringen können. Besonders Anwendungen wie Internetforen, Weblogs, Wikis und webbasierte soziale Netwerke treiben die Entwicklung von user generated contents weiter voran. Ermöglicht haben diese Entwicklung vor allem die großen Fortschritte in der Breitbandtechnologie und der damit verbundene schnelle Datentransfer, die deutliche Senkung der Kosten für solche Online-Verbindungen durch Flatrates, eine Peer-to-Peer-Vernetzung von Computern sowie neue, schnelle Datenbank-Server und Netzdienste. Dies alles ermöglicht es, immer weitere Nutzerschichten zu erschließen. Bei aller Euphorie über diese Entwicklung [...]
Studienarbeit aus dem Jahr 2005 im Fachbereich Medien / Kommunikation - Journalismus, Publizistik, Note: 1,6, Freie Universität Berlin (Institut für Publizistik- und Kommunikationswissenschaft), Veranstaltung: Proseminar: Empirische Kommunikations- und Medienforschung, Sprache: Deutsch, Abstract: Die New York Times formuliert: „all the news that fit to print“. Sie berichte also über alle Ereignisse, die es wert sind, gedruckt zu werden. Es stellt sich daher die Frage, was ein Ereignis zur Nachricht macht und wann sie es wert ist, in der Zeitung abgedruckt zu werden. In Deutschland liefert der dpa-Basisdienst täglich zwischen 300 und 500 Meldungen an die Redaktionen. Die Agentur Reuters schickt täglich etwa 450, die Associated Press etwa 250 Meldungen in die deutschen Redaktionen. Ergänzt wird dieses Angebot noch von Agence France Press mit durchschnittlich 220 bis 300 Meldungen am Tag, den Meldungen von ddp und kleineren Agenturen, sowie den Themendiensten für Sport, Religion und Wirtschaft. Diese Fülle von Meldungen ist bereits durch die Agenturen vorsortiert, es handelt sich also um eine Auswahl, nicht aber um das Abbild des Weltgeschehens. Anschließend wird das Material von den Tageszeitungs- und Rundfunkredakteuren erneut reduziert, wobei sich auch hier die Frage stellt, nach welchen Kriterien dies geschieht. Bei der Informationsflut unserer Gesellschaft befinden sich Journalisten stets in der Zange zwischen ihrem öffentlichen Auftrag und den Zwängen ihres Metiers. Sie sollen also zum einen „[...] möglichst sachlich, umfassend und vollständig zu berichten [...]“ [3. S.6f], zum anderen ist es aber auch ihre Aufgabe, aufgrund begrenzter Publikumsaufmerksamkeit und Sendekapazität die Nachrichtenvielfalt zu reduzieren. Eine Erklärung, wann Journalisten ein Ereignis für berichtenswert halten, liefert die Nachrichtenwert – Theorie. Sie führt die Entscheidung zur Veröffentlichung auf bestimmte Eigenschaften des Ereignisses zurück. Quasi objektive, den Ereignissen inhärente Eigenschaften und nicht die subjektive Auswahl des Journalisten bestimmen demnach, was in der Zeitung steht und was nicht. Prominenz, Elite und Negativität sind dabei nur drei der benannten Eigenschaften, die ein Ereignis für den Journalisten interessant machen. Im Folgenden soll anhand der Forschungsarbeit von Winfried Schulz zur „Konstruktion von Realität in den Nachrichtenmedien“, sowie dem zugrunde liegenden theoretischen und empirischen Arbeiten die Nachrichtenwert-Theorie näher erläutert werden, nicht aber ohne auch kritisch über den Stellenwert der Theoriekonstrukte zu reflektieren.
Inhaltsangabe:Einleitung: Am 12.01.2000 titelte die Süddeutsche Zeitung in Anspielung auf eine Werbekampagne mit Boris Becker: Wir sind schon drin und schrieb in die Unterzeile: Digitale Offenbarung: Die virtuelle Welt wird die wirkliche. Anlass dazu war die Bekanntgabe der Fusion des größten Internet-Service-Providers der Welt, AOL, mit dem damals weltweit umsatzstärksten Medienkonzern, Time Warner. Es war zwar nicht das erste Mal, dass ein Internet-Unternehmen seinen hohen Börsenwert nutzte, um ein anderes Unternehmen mittels Aktientausch zu übernehmen. Bis dahin waren es jedoch nur Objekte, die so virtuell waren wie das übernehmende Unternehmen selbst, und es blieb bei einem Geschäft innerhalb der Internet-Ökonomie. Beim Deal zwischen AOL und Time Warner war es erstmals dazu gekommen, dass ein Internet-Unternehmen einen traditionellen Konzern akquiriert hatte. Umgekehrt hatte es das schon öfter gegeben zum Beispiel den Kauf der Suchmaschine Infoseek durch Walt Disney. Doch hier griff zum ersten Mal ein auf dem Internet basierender Newcomer, dessen Aktienwert zum damaligen Zeitpunkt um das Achthundertfache über dem Wert von 1993 lag, nach einem traditionsreichen und mehr als fünfmal so großen Medienhaus, zu dem unter anderem das Musiklabel Warner Music Group, die Hollywoodstudios Warner Brothers, der Fernsehsender CNN und die Magazine Time, People, Fortune, Life und Sports Illustrated gehörten. Zum Zeitpunkt der Übernahme war AOL den Börsianern rund 163 Milliarden Dollar wert, Time Warner aber nicht einmal die Hälfte davon. Angetrieben werden solche Groß- und Megafusionen durch die Globalisierung der Märkte. Gleichzeitig jedoch werden die Märkte durch eine andere, scheinbar gegenläufige Tendenz gekennzeichnet. Die Informationstechnologie führte zu einem Triumph kleiner, innovativer Unternehmen, die sich ihre Flexibilität durch eine möglichst weit gehende Virtualisierung ihrer Strukturen sichern wollten: den Virtuellen Unternehmen. Durch den immer stärker werdenden Wettbewerb entschlossen sich viele kleine und mittelständische Unternehmen zu fusionieren oder aber, sich für spezielle Aufträge lose zusammenzuschließen, ohne dabei ihre eigene Identität aufgeben zu müssen. So wollten sie Wissen, Informationen und Produktionsmittel teilen. Doch die Informations- und Kommunikationstechnologie sowie die Existenz des Internets ist nur ein Grund dafür, dass es seit einiger Zeit immer häufiger zur Gründung solcher Virtuellen Unternehmen kommt. [...]
©2022 GoogleSite Terms of ServicePrivacyDevelopersAbout Google Play|Location: United StatesLanguage: English (United States)
By purchasing this item, you are transacting with Google Payments and agreeing to the Google Payments Terms of Service and Privacy Notice.