Similar

Inhaltsangabe:Einleitung: Die Liberalisierung der Arbeitsmärkte führt zu einer eingeschränkten Kontrolle der Zuwanderung von Arbeitskräften und wird in der Öffentlichkeit kontrovers diskutiert. Besonders die Migrationsdebatte der vergangenen Jahrzehnte ist aufgrund zunehmend schlechter Arbeitsmarktbedingungen immer stärker durch eine negative Stimmung geprägt. In Zeiten fortschreitender Globalisierung ist Arbeitsimmigration für die marktwirtschaftliche Ordnung einer Volkswirtschaft jedoch eine wesentliche Erfolgsbedingung und verhilft zur Erhöhung der gesamtwirtschaftlichen Wohlfahrt. Dessen ungeachtet führt vermehrte Zuwanderung auch zu Einkommensumverteilung bei inländischen Arbeitskräfte: Während Immigranten und Kapitaleigner meist als Gewinner aus dieser Situation hervorgehen, sind Teile einheimischer Arbeitskräfte die Lohn-Verlierer . Passen sich die Löhne nicht an die durch Immigration bedingte modifizierte Angebots- und Nachfragesituation an, kann dies unter bestimmten Bedingungen zu Substitution und somit steigender Arbeitslosigkeit einheimischer Arbeitnehmer (AN) führen. Durch Immigration können demnach auch negative Wohlfahrtseffekte entstehen. Diese negativen Effekte von Immigration sind umso größer, je geringer der Ausbildungsgrad der Immigranten ist und je stärker der Qualifikationslevel der Immigranten von dem der Einheimischen abweicht. Wanderungsbewegungen von ANn im Niedriglohnbereich wirken sich aufgrund der Konkurrenzsituation vorwiegend nachteilig für niedrig qualifizierte einheimische AN aus. Es kann eine Situation entstehen, in der für diese Arbeiter die Gefahr besteht, durch Immigranten substituiert zu werden. Diese Situation kann zu der Forderung einheimischer Niedrigqualifizierter (NQ) führen, die Zuwanderung ausländischer Arbeitskräfte zu unterbinden oder zumindest stärker zu reglementieren. Insbesondere wenn die Zuwanderungspolitik eines Landes vorwiegend liberal ausgerichtet ist, kann dies zu einer vermehrten Immigration von Arbeitskräften mit geringem Ausbildungslevel führen. Vor dem beschriebenen Hintergrund erscheint die Forderung nach mehr Restriktionen gegenüber der Zuwanderung ausländischer Arbeiter nicht zwingend als irrational. Irlands Immigrationspolitik ist eine der liberalsten in ganz Europa. Seit einigen Jahren sieht sich das Land einer Immigrationssituation gegenüber, die es unter Umständen erfordert, von dieser liberalen Haltung Abstand zu nehmen: Nach jahrzehntelangen Emigrationserfahrungen hat sich [...]
Dieses eBook: "Gott und der Staat (Klassiker des Anarchismus)" ist mit einem detaillierten und dynamischen Inhaltsverzeichnis versehen und wurde sorgfältig korrekturgelesen. Gott und der Staat ist eines der bekanntesten Bücher Bakunins und der anarchistischen Bewegung im Allgemeinen. Bakunin beschreibt darin die Folgen der Religion auf die Gesellschaft und versucht, die Nicht-Existenz Gottes zu beweisen. Michail Bakunin (1814-1876) war ein russischer Revolutionär und Anarchist. Er gilt als einer der einflussreichsten Denker, Aktivisten und Organisatoren der anarchistischen Bewegung. Bakunin entwickelte die Idee des kollektivistischen Anarchismus. In der Internationalen Arbeiterassoziation war Bakunin die Hauptfigur der Antiautoritären und mit Generalratsmitglied Karl Marx im Konflikt, was zur Spaltung der Internationale führte und gleichzeitig zur Trennung der anarchistischen Bewegung von der kommunistischen Bewegung und der Sozialdemokratie. Aus dem Buch: "Wenn es dann noch Beziehungen zu den Menschen unterhält, so geschieht das nicht eines moralischen Bedürfnisses wegen, und infolgedessen auch nicht aus Liebe zu ihnen, weil man liebt, was man braucht, und wer einen braucht; der Mensch, welcher sein unendliches und unsterbliches Wesen wiedergefunden hat, bedarf, da er in sich selbst vollkommen ist, niemanden, außer Gott, der durch ein Geheimnis, das nur die Metaphysiker verstehen, eine noch unendlichere Unendlichkeit und eine noch unsterblichere Unsterblichkeit als die der Menschen zu besitzen scheint; von nun an durch die göttliche Allwissenheit und Allmacht getragen, kann das in sich gesammelte und freie Individuum kein Bedürfnis nach anderen Menschen mehr haben. Wenn es also noch fortfährt, mit ihnen Beziehungen zu unterhalten, so kann das nur aus zwei Gründen geschehen."
Rezension / Literaturbericht aus dem Jahr 2005 im Fachbereich VWL - Industrieökonomik, Note: 1,3, Otto Beisheim School of Management Vallendar (Lehrstuhl für Volkswirtschaftslehre, insbesondere Industrieökonomie), Veranstaltung: Seminar zur Europäischen Wettbewerbspolitik, 1 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: Julio Rotemberg und Garth Saloner analysieren in ihrem Artikel „A Supergame - Theoretical Model of Price Wars During Boom” (1986) die Stabilität von Kartellen bei positiven Nachfrageschocks. Rotemberg und Saloner erweitern die Analyse von Oligopolen, welche bereits in der Vorlesung „Industrial Organization I“ anhand der beiden grundlegenden industrieökonomischen Modelle von Bertrand und Cournot behandelt wurden. Diese können insbesondere das Auftreten von sich wiederholenden Preissteigerungen und -kämpfen nicht schlüssig erklären, wie im Folgenden dargestellt wird: Unter Hinzunahme des Cournot Modells gelangt man zu der Annahme, dass in Oligopolen Preise zwischen Monopol und vollkommenen Wettbewerb herrschen. Das Bertrand Modell prognostiziert im Gegensatz dazu, dass ein Duopol bereits ausreichend sei, um das gleiche Preisniveau wie im vollkommenen Wettbewerb zu erzielen. Die unterschiedlichen Ergebnisse ziehen unweigerlich die Frage nach sich, welches Modell nun das Realistischere darstellt. Empirisch konnte festgestellt werden, dass beide Modelle auf bestimmte Industrien zutreffen: Nimmt man z.B. an, dass Unternehmen sowohl Entscheidungen über die abzusetzende Menge und den zugehörigen Preis zu treffen haben, bestimmt die Reihenfolge (Preis oder Menge) über die Auswahl des passenden Modells.. Die geschilderte Situation ist am besten als zwei Perioden Spiel zu modellieren, in dem die langfristige strategische Entscheidung in der ersten Stufe und die kurzfristige in der zweiten getroffen wird. Der Handlungsrahmen für die kurzfristige Entscheidungen werden von den langfristigen Maßnahmen vorgegeben. Sofern Kapazität bzw. Menge die langfristige und der Preis die kurzfristige Entscheidung ist, lässt sich eher der Preis als die Kapazität verändern, da im zugrunde liegenden Modell erst eine abzusetzende Menge und anschließend der Preis festgelegt wird. Deshalb handelt es sich hierbei um das Cournot Modell.
Inhaltsangabe:Einleitung: Thematik: Das Bruttoinlandsprodukt gilt als der Wohlstandsmaßstab schlechthin. Doch die Debatte darüber, ob es wirklich dafür geeignet ist, das tatsächliche Wohlergehen und die Lebensqualität der Menschen abzubilden, verstärkt sich in den letzten Jahren zunehmend. Nicht zuletzt seit der Finanzkrise ist man dem BIP gegenüber skeptisch geworden. Die Finanzindustrie hat das BIP in den letzten Jahren zwar wie kaum ein anderer Sektor vorangetrieben, aber inwieweit hat sich dadurch der tatsächliche Wohlstand der Menschen verbessert? Diejenigen, die zu den großen Verlierern der Finanzkrise zählten, werden dies zu beantworten wissen. Generell haben viele Vorgänge, die das BIP erhöhen, gleichzeitig negative Auswirkungen auf die tatsächliche Lebensqualität. Sämtliche Naturkatastrophen oder auch Kriminalität erhöhen die Ausgaben und somit das BIP. Dass dadurch aber die Lebensqualität und somit der Wohlstand stark vermindert wird, ist im Endergebnis nicht zu sehen. Des Weiteren ist bekannt, dass die Lücke zwischen Arm und Reich immer größer wird. Wenn die Minderheit der Reichen immer reicher wird und der Rest der Bevölkerung immer ärmer, dann sagt eine Steigerung des BIP nichts darüber aus, wie es der Mehrheit der Menschen wirklich geht, da die Einkommensverteilung nicht berücksichtigt wird. Die Diskussion ist aber längst nicht neu. Schon 1972 veröffentlichte der sog. Club of Rome einen Bericht über die ‘Grenzen des Wachstums’, in dem auf die Endlichkeit von Ressourcen hingewiesen wird. Durch das BIP wird Wachstum um jeden Preis betrieben. Da es keine ökologischen Faktoren berücksichtigt, kann mit dem BIP auch kein nachhaltiges Wachstum erreicht werden. Es besteht noch eine Reihe von weiteren Kritikpunkten, welche in dieser Arbeit noch genauer behandelt werden. Die Politik hat erkannt, dass Handlungsbedarf besteht und man einen neuen Wohlstandsindikator braucht, der all das berücksichtigt, was wahren Wohlstand ausmacht. Dazu wurde 2010 eine Enquete-Kommission Wachstum, Wohlstand, Lebensqualität vom Bundestag ins Leben gerufen, die sich mit genau diesen Dingen beschäftigen und u. a. das BIP verbessern und erweitern soll. Da die Diskussionen zu diesem Thema schon seit Jahrzenten bestehen, existiert schon eine Reihe von alternativen Wohlstandsindikatoren, die in anderen Ländern oder von anderen Institutionen bereits genutzt werden. Gegenstand dieser Arbeit ist es, ausgewählte Modelle solcher Indikatoren vorzustellen, kritisch [...]
Wissenschaftlicher Aufsatz aus dem Jahr 1989 im Fachbereich BWL - Wirtschaftspolitik, , 27 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: „Jobmotor Mittelstand“ ? Klein- und Mittelunternehmen (KMU) und die Selbstheilungskräfte des Marktes Wilma Ruth Albrecht In der Sonntagsausgabe der Frankfurter Allgemeinen Zeitung (FAS, 6. Mai 2007, p. C3) fand ich einen Hinweis auf eine aktuelle Studie der Universität Lüneburg. Dort wurde festgestellt, dass die allgemein (und zuletzt auch wieder von der FAZ selbst am 12. Mai 2007, p. C4) verbreitete These und „Expertenansicht“ vom Job- und „Beschäftigungsmotor“ Mittelstand empirisch nicht haltbar ist. Das erinnerte mich an meine eigene Studie zum gleichen Thema. Vor etwa zwanzig Jahren nämlich hatte ich selbst(ändig), US-amerikanische und englische Studien auswertend, systematisch-kritisch entwickelt und mit damals verfügbaren Daten empirisch dargestellt, dass die „behauptete überdurchschnittliche arbeitsplatzerzeugende Wirkung“ von Klein- und Mittelunternehmen [KMU] sich speziell für die Bundesrepublik nicht nachweisen“ lässt. Meine Studie wurde 1988 in Aufsatzform publiziert. So erfreulich es einerseits ist, dass nun, nahezu zwei Jahrzehnte später, auch beamtete Hochschulwissenschaftler zu ähnlichen Grundergebnissen kommen - so befremdet andererseits doch der professorale raum-zeitliche Wahrnehmungshorizont. Denn tatsächlich erfasst die Studie am Institut für Volkswirtschaftslehre der Universität Lüneburg („Jobmotor Mittelstand ? Arbeitsplatzdynamik und Betriebsgröße in der westdeutschen Industrie“) vom 10. April 2007 nur Literatur aus den 1990er Jahren - grad so als hätte es vorher überhaupt keine, auch kritisch argumentierende, wissenschaftliche, also öffentliche, Debatte zum gleichen Thema mit empirischen Nachweisen zur Legende vom „Jobmotor Mittelstand“ gegeben... Auch darauf, wenn auch nicht allein darauf, verweist mein im Herbst 1988 veröffentlichter Aufsatz, den ich, weil die ©-Rechte allein bei mir als Autorin liegen, hier als wissenschaftsgeschichtliches Dokument unverändert wieder veröffentliche. Dr.rer.soc. Wilma Ruth Albrecht; dr.w.ruth.albecht@gmx.net; http://www.grin.com/de/search?searchstring=16255&search=id_autor&page=0; Aktuelle Bücher: Bildungsgeschichte/n; Aachen: Shaker-Verlag, 2006, 202 p., http://www.shaker.de/shop/978-3-8322-4897-0; Harry Heine; Shaker, 2007, 114 p., http://www.shaker.de/shop/978-3-8322-6062-0; Nachkriegsgeschichte/n. Sozialwissenschaftliche Beiträge zur Zeit(geschichte); Shaker, 2007, http://www.shaker.de/shop/978-3-8322-6506-9
Diplomarbeit aus dem Jahr 2005 im Fachbereich VWL - Verkehrsökonomie, Note: 2,0, Helmut-Schmidt-Universität - Universität der Bundeswehr Hamburg, 92 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: „Der diskriminierungsfreie Netzzugang wird bei der DB Netz AG täglich und konsequent gelebt. Beleg für den fairen Wettbewerb auf der Schiene ist nicht zuletzt die Zahl der mehr als 290 externen Kunden, die auf unserem Netz unterwegs sind – Tendenz steigend.“ Diese Aussage von Dagmar Haase Vorstand Marketing/Vertrieb der Deutschen Bahn AG zeigt, wie sich die Deutsche Bahn selbst in der Rolle des Infrastrukturanbieters sieht. Seit der Bahnreform im Jahr 1994 muss die Deutsche Bahn AG Wettbewerbern einen Netzzugang zu ihren Trassen gegen Entgeltzahlung, dem Trassenpreis, gewähren. Seitdem ist es auf dem Netz zu einer steigenden Anzahl von Transportunternehmen im Bereich des Güter- und Personenverkehrs gekommen, welche neben der Deutschen Bahn AG Verkehrsleistungen auf deren Trassennetz anbieten. Doch kann allein die Anzahl der Wettbewerber kein Beleg für einen fairen Wettbewerb auf der Schiene sein. Ein fairer Wettbewerb auf der Schiene kann nämlich nur entstehen, wenn das Zugangsentgelt, also der Trassenpreis, in angemessener Höhe erhoben wird. Dies wird deutlich, da der Trassenpreis seit Jahren im Blickpunkt der Betrachtung von Seiten der Marktakteure, den Regulierungsbehörden, der Europäischen Union und letztlich auch der Wissenschaft steht. So gab es vor dem Eisenbahnbundesamt und dem Kartellamt immer wieder Beschwerden durch die Nachfrager über die Höhe der Trassenpreise, die darauf mit Auflagen und Vorgaben der Trassenpreisgestaltung reagierten. Im Rahmen der Europäischen Kommission und besonders der Verkehrsministerkonferenzen gab und gibt es Treffen, bei denen nach Gestaltungsvorgaben und Lösungen gesucht wird, einen Trassenpreis zu gestalten, der einen Wettbewerb auf der Schiene fördert und die Problematik der Diskriminierung lösen kann. In der Forschungsliteratur gibt es zahlreiche ökonomische Analysen und Studien, die den Markt für Schieneninfrastruktur analysieren und Methoden der Trassenpreisgestaltung anbieten. Der Konsens bei allen Beteiligten liegt im Ziel der Gestaltung eines Trassenpreises, der zu einer effizienten Allokation der knappen Ressource Trasse beiträgt, den Wettbewerb fördert und die Kosten des Infrastrukturanbieters deckt. Diese Arbeit wird das aktuelle Trassenpreissystems der Deutschen Bahn AG dahin gehend überprüfen, ob allokativ effiziente Trassenpreise vorliegen und somit die genannten Forderungen erfüllt werden können.
Studienarbeit aus dem Jahr 2009 im Fachbereich VWL - Wettbewerbstheorie, Wettbewerbspolitik, Note: 1.7, Georg-August-Universität Göttingen, Veranstaltung: Wettbewerbsfähigkeit und europäischer Binnenmarkt, Sprache: Deutsch, Abstract: Zwischen der Finanzverfassung eines föderalen staatlichen Gebildes und der politischen Verfassung besteht eine enge Interaktion. Finanzielle Restriktionen einer föderalen Ebene sind eine wichtige Determinante der künftigen politischen Entwicklung. Aber auch umge-kehrt: Politische Entscheidungen über die Größe, Gestalt und Aufgabenverteilung in einer Gemeinschaft haben Konsequenzen für die notwendige Ausstattung dieser Ebenen mit finanziellen Mitteln. Dies gilt in besonderer Weise für die Finanzverfassung der EU. Die Entscheidung, die europäische Politikebene zu einem maßgeblichen Akteur in der Strukturpolitik zu machen, hatte eine starke Ausdehnung des finanziellen Rahmens zur Folge. In den letzten 25 Jahren hat die EU eine Reihe tiefgreifender Veränderungen erlebt, begin-nend mit der ersten Erweiterung (Spanien, Portugal), der Schaffung eines europäischen Binnenmarktes im Jahre 1992, der Einführung des Euro und den weiteren Erweiterungen bis hin zur EU-27. In der Theorie der öffentlichen Finanzen Richard Musgraves stellen Stabilisierung, Allokation und Distribution die drei Säulen öffentlicher Finanzen dar. Verglichen mit den öffentlichen Haushalten der Mitgliedsstaaten hat der EU-Haushalt ein ausgesprochen geringes Volumen, eine Verschuldung ist nicht zulässig und Gemeinschaftssteuern im eigentlichen Sinne darf die EU auch nicht erheben. Vielmehr versucht sie durch ein übergeordnetes Gesetzeswerk zu regulieren. Nichtsdestotrotz hat sich seit Beginn der europäischen Währungsunion das derzeitige Transfersystem als unzureichend erwiesen. Gerade Keynesianer argumentieren, dass es inner-halb einer funktionierenden Währungsunion effektive fiskalische Transfermechanismen ge-ben muss, um nationale, politische oder wirtschaftliche Schocks auszugleichen. Die EU verfügt allerdings weder über einen genügend starken Zentralhaushalt noch über einen Länderfinanzausgleich. Der EU-Struktur- und Kohäsionsfonds kann dem nur begrenzt gerecht werden. Die gleichzeitige Ausweitung der Kompetenzen der EU führt auch zu immer lauterer Kritik an fehlender Transparenz und einem damit einhergehendem Demokratiedefizit. Aufgrund dieser Entwicklungen und den damit verbundenen Problemen und kontroversen Diskussionen wird der Verfasser in dieser wissenschaftlichen Arbeit den EU-Haushalt und dessen Entwicklung kritisch analysieren. In Kapitel zwei geht es...
Studienarbeit aus dem Jahr 2006 im Fachbereich BWL - Wirtschaftspolitik, Note: 2,0, Carl von Ossietzky Universität Oldenburg, Veranstaltung: Das aktuelle Gutachten des Sachverständigenrates, 11 Literaturquellen Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: In der vorliegenden Arbeit sollen die Globalisierungskonzepte des Sachverständigendenrates und des Memorandums erarbeitet, diskutiert und ordnungspolitisch eingeordnet werden. Einführend in das Thema wird zunächst kurz darauf eingegangen, was unter dem Begriff der Globalisierung zu verstehen ist und welche Chancen aber auch Risiken mit ihm verbunden werden. Nachdem eingangs ein Überblick über zwei gegensätzliche Globalisierungspositionen gegeben wird, sollen die Gutachten des Sachverständigenrates und des Memorandums mit den von uns gesetzten Schwerpunkten untersucht werden. Anschließend wird jeweils versucht, die gewonnenen Erkenntnisse zu einem Globalisierungskonzept zusammenzufassen. Danach gilt es zu klären, wie sich die Positionen des Sachverständigenrates und des Memorandums ordnungspolitisch einordnen lassen. Den Schluss unserer Arbeit bildet ein eigens erstelltes Schema, das die Kernaussagen nochmals abbildet. Das Thema dieser Arbeit wird grundlegend von dem Verständnis des Begriffs „Globalisierung“ geprägt. Daher besteht für uns zunächst das Bedürfnis diesen anfänglich zu definieren und seine Dehnbarkeit zu klären. Ursprünglich stammt das Wort Globalisierung aus der Ökonomie und Soziologie und wurde erstmalig 1961 in ein englisches Lexikon aufgenommen. Seit 1990 dringt der Begriff immer mehr in die Öffentlichkeit und wird stark kontrovers diskutiert. Definitionen für den Begriff der Globalisierung gibt es viele. == 1 Genauer: Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung. Verwendete Kurzformen in dieser Arbeit: SVR, Rat. Ausführliche Darstellung in Kap. 3f. 2 Memorandum: Gutachten der Arbeitsgruppe Alternative Wirtschaftspolitik. Andere Bezeichnungen in dieser Arbeit: Memorandumgruppe, Memo (Kurzform). Ausführliche Darstellung in Kapitel 4f.
Studienarbeit aus dem Jahr 2009 im Fachbereich VWL - Mikroökonomie, allgemein, Note: 1,0, Rheinische Friedrich-Wilhelms-Universität Bonn (-), Veranstaltung: The Economics of Information, Sprache: Deutsch, Abstract: Auf Basis der wissenschaftlichen Arbeit von Alonso, Dessein und Matuschek soll analysiert werden, unter welchen Bedingungen eine Organisation entweder zentral oder dezentral koordiniert werden sollte. Eine Organisation wird dadurch gesteuert, indem man Personen mit operativen Rechten ausstattet und sie so zu Entscheidungsträgern macht. Zentrale Koordination hat den Vorteil aus einer Gesamtsicht die Unternehmensressourcen allokieren zu können, da angenommen wird, dass alle Informationen beim zentralen Planer zusammenfließen. Werden die Entscheidungsrechte dezentral vergeben, fungieren Bereichsmanager, die dann alleinverantwortlich für den Erfolg ihres Bereichs sind. Dabei genießt diese Art der Organisation den Vorteil, dass die Entscheidungsträger die ihnen zur Verfügung stehenden Ressourcen sehr effektiv an die Bereichszustände anpassen können. Da die BM über den Zustand ihres eigenen Bereichs am besten informiert sind, müssen sie zum einen dem Generalmanager die relevanten Informationen kommunizieren, und zum anderen sich mit den anderen BM austauschen. Ziel einer Organisation ist es, einen möglichst effizienten Trade-off zwischen Koordination und Adaptierung sicherzustellen. Daher liegt das Hauptaugenmerk der Arbeit in der Analyse des Kommunikationsverhaltens. Aufbauend auf dem klassischen Modell von Crawford und Sobel wird analysiert, unter welchen modellspezifischen Bedingungen Kommunikationsgleichgewichte zwischen den Entscheidungsträgern resultieren. Die Art der Kommunikation wird Cheap-Talk genannt, da die BM direkt und kostenlos miteinander kommunizieren können. Dabei wird außerdem zwischen horizontaler, d.h. Kommunikation zwischen den BM, und vertikaler Kommunikation, d.h. Kommunikation zwischen den BM und dem GM unterschieden. Aufgrund der Annahme, dass BM eigennützig operieren und so vordergründig Bereichsgewinne maximieren, stellt sich die Frage, inwiefern Informationen sowohl qualitativ als auch quantitativ weitergeben werden. Ferner wird angenommen, dass die BM auf der Grundlange des Zustands ihre Entscheidungen treffen. Diese Zustände treten im Modell in Form einer Zufallsvariable auf. Über den Zustand informieren sie anschließend den GM durch die Übermittlung einer Nachricht. Da die BM innerhalb der Organisation nicht an Einfluss verlieren möchten, werden sie in den meisten Fällen nicht wahrheitsgemäß die Informationen weitergeben.
Unter den zahlreichen Finanzinnovationen, die den Trend zur Securitization auf den inter nationalen Finanzmärkten in den letzten Jahren verstärkt haben, nehmen Euronote-Fazili täten und Euro Commercial Paper-Programme eine herausragende Stellung ein. Die Entwick lung der Volumina beider Finanzierungsinstrumente zeigt allerdings eine deutliche Abnahme der Euronote-Fazilitäten, bei denen Kreditinstitute in der Regel dem Emittenten eine "Standby"--Oder "Backup"-Linie einräumen, zugunsten von Euro Commercial Paper Programmen, bei denen die Banken nur noch reine Vermittlungstätigkeiten ausüben oder Kreditnehmer sogar ohne die Einschaltung von Kreditinstituten zu Vertragspartnern werden. Vor diesem Hintergrund unternimmt der Verfasser der vorliegenden Arbeit eine umfassende Analyse der Chancen und Risiken von Euronote-Fazilitäten und Euro Commercial Paper Programmen. Von den rechtlichen und wirtschaftlichen Unterschieden dieser beiden Finan zierungsinstrumente ausgehend, analysiert er die Interessenlage von Emittenten, Banken und Investoren und vermag unter Verwendung finanzierungstheoretischer Erkenntnisse aufzuzeigen, daß im Gegensatz zu Euronote-Fazilitäten, die infolge einer inkonsequenten Rollenverteilung zwischen Kapitalmarkt und Finanzintermediären eine für alle Beteiligten gleichermaßen vorteilhafte Aufteilung der vorhandenen Chancen und Risiken verhindern, Euro Commercial Paper-Programme einen fairen Ausgleich zwischen den unterschiedlichen Interessen der Marktteilnehmer erlauben. Auf diesen Erkenntnissen aufbauend, erörtert der Verfasser bankaufsichtliche Möglichkeiten zur Begrenzung von Risiken aus underwriting commitments und untersucht abschließend das Phänomen der Disintermediation und seiner Folgen für die Risikoverteilung zwischen Banken und Nichtbanken.
Studienarbeit aus dem Jahr 2013 im Fachbereich VWL - Gesundheitsökonomie, Note: 1,7, Gottfried Wilhelm Leibniz Universität Hannover (Öffentliche Finanzen), Veranstaltung: Das Wahljahr 2013 aus finanzwissenschaftlicher Sicht, Sprache: Deutsch, Abstract: Um die Fragestellung dieser Arbeit zu beantworten, wird das derzeitige duale Krankenversicherungssystem, bestehend aus der Privaten und Gesetzlichen Krankenversicherung (PKV und GKV), dargestellt und hinsichtlich seiner Herausforderungen in struktureller, rechtlicher, verteilungspolitischer und ökonomischer Hinsicht untersucht. Dabei zeigt sich, dass die Finanzierung der GKV, welche mit der Anzahl der abhängig Beschäftigten und deren Arbeitseinkommen stark korreliert, anfällig ist gegenüber der demografischen Entwicklung, dem Trend hin zur atypischen Beschäftigung und der sinkenden Bruttolohnquote. Auch wird die Problematik des negativen Multiplikatoreffektes offensichtlich. Gezeigt wird, dass die Solidarität im bisherigen dualen Krankenversicherungssystem durch die Versicherungspflichtgrenze, Beitragsbemessungsgrenze und Beitragsbemessungsgrundlage eingeschränkt wird und dass die unterschiedlichen Gebührenordnungen der GKV und PKV zu Versorgungsunterschieden von Kassen- und Privatpatienten führen. Weiterhin lässt die Dualität der Systeme einen mangelnden Wettbewerb entstehen. Das Konzept der Grünen Bürgerversicherung wird als mögliche Alternative zum bestehenden System beleuchtet. Diese Art der Krankenversicherung bezieht alle Bürger ein, erweitert die Beitragsbemessungsgrundlage auf alle Einkunftsarten, hebt die Beitragsbemessungsgrenze auf das Niveau der Rentenversicherung an, führt neben der einheitlichen Gebührenordnung, eine Beitragssatzautonomie für die Krankenkassen ein, beschränkt die beitragsfreie Mitversicherung durch das Beitragssplitting für Ehepaare und stellt die paritätische Finanzierung zwischen Arbeitnehmern und Arbeitgebern wieder her. Nach der Analyse und kritischen Betrachtung der vorliegenden Entwürfe und Prognosen zur Grünen Bürgerversicherung wird als Fazit festgestellt, dass bisher noch nicht alle mit der Umsetzung verbundenen notwendigen Fragen ausreichend und befriedigend beantwortet sind. Eine abschließende Einschätzung in Bezug auf die Sinnhaftigkeit und den Nutzen der Einführung der Grünen Bürgerversicherung wird daher wesentlich von der Fortschreibung des Konzepts bzw. von der Diskussion einer erweiterten Reformstrategie für die Krankenversicherung abhängen.
Dieses eBook: "Lohn, Preis und Profit" ist mit einem detaillierten und dynamischen Inhaltsverzeichnis versehen und wurde sorgfältig korrekturgelesen. Karl Marx (1818-1883) war ein Philosoph, Ökonom, Gesellschaftstheoretiker, politischer Journalist, Protagonist der Arbeiterbewegung sowie Kritiker der bürgerlichen Gesellschaft und der Religion. Zusammen mit Friedrich Engels wurde er zum einflussreichsten Theoretiker des Sozialismus und Kommunismus. Bis heute werden seine Theorien kontrovers diskutiert. Lohn, Preis und Profit ist die Bezeichnung eines Vortragsmanuskripts von Karl Marx aus dem Jahre 1865. Es beinhaltet die marxsche Mehrwerttheorie in groben Zügen, wie sie im Kapital von 1867 ausführlich dargestellt ist. Marx stellt in der Rede den Zusammenhang von Warenpreis und Lohnzahlungen infrage. Warenpreise würden sich nach dem Gesetz von Angebot und Nachfrage verhalten; Lohnzahlungen seien auf die Verhandlungen zwischen Arbeitern und Kapitalisten zurückzuführen. Da die Arbeiterklasse einen Großteil ihres Einkommens für Nahrungsmittel verausgaben müsse, würde zwar eine allgemeine Steigerung der Lohnrate eine erhöhte Nachfrage und somit eine Steigerung der Marktpreise nach sich ziehen. Marx zeigt jedoch an einigen Beispielen der zeitgenössischen britischen Wirtschaft, dass die Preise nicht immer fielen, wenn der Lohn verringert wurde, und nicht immer stiegen, wenn er erhöht wurde. Der Wert einer Ware sei vielmehr zu bestimmen durch die Masse der gesellschaftlichen Arbeit, die in die Förderung aller notwendigen Rohstoffe für die Ware und die Produktion der Ware selbst, geleistet worden sei. Die Masse der gesellschaftlichen Arbeit sei nach der Dauer der Arbeitszeiten aufzuaddieren, die die Förderung der Rohstoffe, ihrer Verarbeitung und die Entwicklung des dazu nötigen Instrumentariums (Geräte, Maschinen) in Anspruch genommen hat.
Lange herrschte die Vorstellung von Deutschland als Hochlohnland mit einer gerechteren Verteilung der L”hne als in vielen anderen Industriel„ndern. Neuere Untersuchungen beweisen jedoch das Gegenteil: In den 1990er Jahren hat die Lohnschere radikal zugenommen. Gerade im unteren Einkommenssegment wuchs die Ungleichverteilung der Geh„lter so stark, dass die Bundesrepublik in diesem Punkt gleich zog mit den bisherigen Spitzenreitern USA und Groábritannien. Gleichzeitig nahm die Arbeitslosigkeit unter gering qualifizierten Arbeitnehmern berproportional zu. Personen ohne Bildungsabschluss hatten zunehmend schlechtere Chancen auf dem deutschen Arbeitsmarkt. Eine Erkl„rung dieser Ph„nomene liefert die neoklassische Auáenhandelstheorie. Sie fhrt die gestiegene Nachfrage nach hoch qualifizierten Arbeitskr„ften auf einen Strukturwandel der Wirtschaft zurck: Im Zuge der wachsenden internationalen Arbeitsteilung mit Entwicklungsl„ndern spezialisieren sich die Industriel„nder auf die Produktion von humankapitalintensiven Gtern. Steht die deutsche Lohnspreizung also in einem kausalen Zusammenhang mit dem verst„rkten internationalen Handel? Die vorliegende Arbeit geht dieser Frage nach. Auf dem theoretischen Fundament des Heckscher-Ohlin-Samuelson-Modells werden vier Hypothesen gebildet, die anhand von Strukturdaten des Verarbeitenden Gewerbes der Reihe nach empirisch berprft werden. Die Ergebnisse sind differenziert: Zwar werden zentrale Aussagen des Modells widerlegt, ein Zusammenhang zwischen internationalem Handel und den jngsten Entwicklungen auf dem deutschen Arbeitsmarkt kann jedoch nachgewiesen werden.
Inhaltsangabe:Einleitung: Die Tarifpolitik steht unweigerlich vor einem bedeutungsvollen Wandel. So hat sich das Bundesarbeitsgericht (BAG) mit seinen Urteilen vom 27. Januar 2010 und 23. Juni 2010 dazu entschlossen, den seit über fünfzig Jahren geltenden, aber seit jeher rechtlich umstrittenen Grundsatz der Tarifeinheit ein Betrieb ein Tarifvertrag aufzugeben (BAG, Pressemitteilung Nr. 9/10; BAG, Pressemitteilung Nr. 46/10; Völker / Herold 2011: 3f). Damit können in einem Betrieb oder Unternehmen nun unterschiedliche Tarifverträge für die in verschiedenen Gewerkschaften organisierten Arbeitnehmer parallel zur Anwendung kommen. Dies hat zur Folge, dass vor allem Spartengewerkschaften, die einzelne Berufsgruppen vertreten, in ihrer Position gestärkt werden. Denn diese können nun künftig auch dort eigene Tarifverträge durch einen Arbeitskampf erzwingen, wo eine Großgewerkschaft bereits einen Tarifvertrag für die ganze Belegschaft abgeschlossen hat (Völker / Herold 2011: 5). In Folge wurde eine lebhafte Diskussion hervorgerufen. Im Mittelpunkt dieser Diskussion steht dabei neben dem Urteil des Bundesarbeitsgerichts zur geänderten Rechtsprechung der Tarifeinheit (BAG, Pressemitteilung Nr. 9/10; BAG, Pressemitteilung Nr. 46/10) die am gleichen Tag nach Bekanntgabe des Urteils veröffentlichte gemeinsame Initiative der Bundesvereinigung der Deutschen Arbeitgeberverbände (BDA) und dem Deutschen Gewerkschaftsbund (DGB) mit ihrer Forderung nach einer mit Eingriffen in das Streikrecht verbundenen gesetzlichen Verankerung der Tarifeinheit innerhalb des Tarifvertragsgesetzes (Initiative BDA/DGB 2010). Ihr Vorhaben begründen diese vor allem damit, dass nach der Kehrtwende des Bundesarbeitsgerichts zum Grundsatz der Tarifeinheit mit einer erheblichen Zersplitterung der Tariflandschaft sowie einer drastischen Zunahme von Arbeitskämpfen zu rechnen sei (Initiative BDA/DGB 2010). Unterstützung für die gemeinsame Initiative von BDA und DGB gab es vor allem seitens Bundeskanzlerin Dr. Angela Merkel (CDU), Bundesarbeitsministerin Ursula von der Leyen (CDU) und der SPD-Fraktion (Siems / von Borstel 2011; Sturm 2010). Spartengewerkschaften, wie etwa der Marburger Bund (MB), die Gewerkschaft Deutscher Lokomotivführer (GDL) oder die Gewerkschaft der Flugkapitäne, Vereinigung Cockpit (VC), aber auch mehrere renommierte Arbeits- und Staatsrechtler (Däubler 2010; Reichold 2010; Rieble 2010) reagierten auf die gemeinsame Initiative von BDA und DGB dagegen mit offener, [...]
Studienarbeit aus dem Jahr 2009 im Fachbereich BWL - Wirtschaftspolitik, Note: 1,7, Universität Hamburg (Wirtschafts- und Sozialwissenschaften), Veranstaltung: Sozialstrukturanalyse, Sprache: Deutsch, Abstract: Die immer stärker zunehmende Kluft zwischen und Arm Reich in Europa fordert eine Antwort darauf, wer wirklich in der Lage ist, diese Entwicklung mit seinen Entschei-dungen spürbar zu steuern. Bekanntlich haben politische Machteliten einen direkten Einfluss auf die Gesetzgebung wie beispielsweise die Steuererhöhung oder die Einfüh-rung von Studiengebühren. Nutzen sie ihre gesellschaftliche Position ausschließlich für ihre eigenen Vorteile? Gibt es einen Zusammenhang zwischen der Elitestruktur und der sozialen Ungleichheit eines Landes? Die Behandlung dieser Fragen ist der zentrale Gegenstand der vorliegenden Arbeit. Einen interessanten Ansatz bietet die Theorie der Neomachiavelisten, die allerdings in dieser Arbeit nicht weiter vertieft werden soll. Sie stellt eine der beiden wesentlichen existierenden Theorien der soziologischen Elitenforschung dar, in deren Zentrum politische Führer und deren Machtausübung stehen. Diese Theorie, zu deren Vertretern Robert Michels, Charles Mills und Pierre Bourdieu gehören, besagt unter anderem, dass die Machthabenden nicht ausschließlich zum Wohle der Masse regieren, sondern zur Vermehrung des eigenen Reichtums. Zur Klärung der oben aufgeworfenen Fragen wird in der vorliegenden Arbeit im Kapitel 3 ein Vergleich der Elitenstruktur Deutschlands mit der Frankreichs vorgenommen. Dieser erfolgt anhand von Kriterien wie der Rekrutierung, Homogenität sowie der Zusammensetzung und Mobilität der Eliten. Es wird näher darauf eingegangen, aus welcher sozialen Schicht die Mitglieder der politischen Führung stammen. Jedoch ist zuvor eine Auseinandersetzung mit dem Elitebegriff und den Elitearten für das weitere Verständnis der Arbeit in Kapitel 2 notwendig. Anschließend wird in Kapitel 4 das Ausmaß der sozialen Differenzen in Deutschland und Frankreich mit Hilfe eines Vergleichs der Vermögensverteilung in den ausgewählten Ländern näher betrachtet. Die gewonnenen Schlussfolgerungen schlagen sich ebenfalls in Kapitel 4 nieder, in dem die soziale Ungleichheit in einen Zusammenhang mit der Elitenstruktur gebracht wird.
Studienarbeit aus dem Jahr 2009 im Fachbereich VWL - Konjunktur und Wachstum, Note: 1.0, Philipps-Universität Marburg (Institut für Wirtschaftsgeschichte), Veranstaltung: Konjunkturen, Sprache: Deutsch, Abstract: Die vorliegende Arbeit geht der Frage nach, ob und in wieweit die Erforschung der Länge von Konjunkturzyklen nach dem heutigen Stand der Forschung noch von wissenschaftlicher und konjunkturpolitischer Relevanz ist. Konjunkturzyklen werden in unterschiedlichster Form immer wieder beobachtet. Ein in wenigen Jahren regelmäßig wiederkehrender konjunktureller Modellzyklus konnte jedoch nicht nachgewiesen werden. Erklärunsobjekt der Forschung sind heute Beobachtungen über das typische Entwicklungsverhalten von makroökonomischen Variablen auf kurze und mittlere Sicht, den sog. stilisierten Fakten. Auch für andere neue Theorien wie die NKM, NCM oder RBC-Modelle existieren regelmäßige zyklische Schwankungen nicht, sondern nur zufällig, wobei aber gewisse Regelmäßigkeiten und Verlaufsmuster in Zeitreihen der ökonomischen Variablen erforscht werden. „Long Swings“ nach Kuznets lassen sich mit demo-ökonomischen Erklärungsansetzen gut darstellen. Sie lassen sich im Wohnungsbau und der Infrastruktur plausibel mit Schwankungen der Heiratsziffer, Haushaltsgründungen und Ein- bzw. Auswanderungen in Beziehung setzen, jedoch bleibt die empirische Basis sehr schmal und unsicher. Siegenthaler erklärt sie aus der Interaktion zwischen längerem Wachstum und sozio-politischen bzw. kultu-rellem Wandel. Auch der Nachweis der „Langen Wellen“ ist bisher theoretisch und empirisch unbefriedigend gelungen. Langfristige Trendschwankungen sind nur mit historisch singulären Schocks begründbar. Eine Art „Meta-Theorie“ wäre erforderlich, wie von Bornschier vorgestellt, die alle wesentlich erscheinenden Dimensionen des sozialen, kulturellen, politischen und ökonomischen Wandels einbezieht. Die Untersuchung von „Langen Wellen“ zeigt, dass sie auf den Normalzyklus zurück verweist und auf die Zusammenhänge zwischen aufeinanderfolgenden Normalzyklen. So ist es wenig sinnvoll, Juglar-Zyklen als separates Phänomen zu untersuchen, weist doch die Untersuchung „Langer Wellen“ auf die zentrale Bedeutung des Trends und periodischer Wechsel in Trendrate und –richtung hin. Für den Wirtschaftshistoriker erscheint es wichtig, Trend und Zyklus in übergreifende soziale und politische Verhältnisse eingebunden zu sehen. P. Krugman plädiert in diesem Kontext für einen neuen Typ von Wissenschaftler, der zunächst beobachtet, nicht interpretiert: Den Wirtschaftshistorikerer
Inhaltsangabe:Einleitung: Nachhaltigkeit ist einer der zentralen Entwicklungsbegriffe der 90er Jahre. Projekte gelten als wichtiges Element zur Umsetzung auf kleinräumiger Ebene. Obwohl aber die globalen Problemdimensionen immer umfassender werden, ist die Projektevaluierung mittels Nachhaltigkeitskriterien bisher wenig erprobt. So fehlen sowohl Informationen über Wirkungen und Effekte von Projekten als auch Verfahren zur Erfassung, Messung und Bewertung dieser Wirkungen. Das EXPO-Programm Weltweite Projekte (WWP) stellt mit seinen über 800 Projekten, einen Fundus von Versuchen dar, Nachhaltigkeit in ihrer gesamten thematischen Breite umzusetzen. Dieser Fundus wird in dieser Arbeit genutzt, um die Umsetzung von Nachhaltigkeit - beispielhaft an vier EXPO-Projekten - zu untersuchen und gleichzeitig ein Evaluierungsschema zu entwickeln. Ziel dieser Analyse und Bewertung von nachhaltigkeitsorientierten Projekten ist also zum einen das Aufzeigen von beispielhaften Lösungen und konzeptionellen Unterschieden bei Projekten. Zum anderen soll ein Beitrag geleistet werden, ein Bewertungsschema zu entwickeln, das es erlaubt, die Nachhaltigkeit anderer Projekte zu evaluieren. Dabei liegt der Schwerpunkt in dieser Arbeit auf Netzwerkprojekten, da kooperativen Planungs- und Umsetzungsprozessen im Leitbild von Nachhaltiger Entwicklung (NE) eine hohe Bedeutung beigemessen wird. Eine Analyse erscheint aus folgenden Gründen notwendig: Die strukturierte, praktische Umsetzung nachhaltiger Projekte wird angesichts globaler Problemdimensionen eine immer dringendere Aufgabe. Beim Blick in die wissenschaftliche Literatur wird schnell deutlich: Es lassen sich zahllose Arbeiten zur theoretisch-systematischen Aufarbeitung von Nachhaltigkeit sowie der Entwicklung von großräumigen Indikatoren finden. Die Auswertung von Umsetzungsbeispielen bzw. die Projektevaluierung mittels Nachhaltigkeitskriterien ist hingegen ein wenig in der Praxis erprobtes Thema. In der wissenschaftlichen und politischen Diskussion zum Thema Nachhaltigkeit fehlen Informationen über Wirkungen und indirekte Effekte der Projekte in räumlicher, d.h. in erster Linie regionaler Dimension, in thematischer und in zeitlicher Dimension. Es fehlen Verfahren zur Erfassung, Messung und Bewertung dieser Wirkungen sowie Instrumente zur Evaluation der Entwicklung und Zielerreichung von Projekten, die sich an Nachhaltigkeit orientieren. Es fehlt an Wissen über Strukturen und Bedingungen für Projekt und Umfeld, [...]
Studienarbeit aus dem Jahr 2007 im Fachbereich BWL - Wirtschaftspolitik, Note: 1,3, Universität Hohenheim (Institut für Volkswirtschaftslehre, Lehrstuhl für Volkswirtschaftslehre, insbes. Umweltökonomie sowie Ordnungs-, Struktur- und Verbraucherpolitik (520F)), Veranstaltung: Aktuelle Fragen der Umwelt- und Ordnungspolitik, 28 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: Der Umweltschutz ist nach dem Arbeitsmarkt das zweitgrößte Problemfeld für die deutsche Bevölkerung und wächst in seiner Bedeutung [BMU (2006, S.14)]. Das BMU führt dies mitunter auf die zunehmende öffentliche Wahrnehmung des Klimawandels zurück. So warnt das IPCC in seinem aktuellen Weltklimabericht vor einer Klimakatastrophe, die nur durch eine deutliche Reduktion des laufenden Schadstoffausstoßes verhindert werden kann (Handelsblatt 2007a). Die Wissenschaftler des IPCC halten es für sehr wahrscheinlich, dass die Erderwärmung der letzten 50 Jahre im Wesentlichen durch anthropogene Schadstoffemissionen ausgelöst wird. Vergangene und aktuelle Umweltbelastungen gefährden unsere Lebensgrundlage und die künftiger Generationen. Die Bundesrepublik Deutschland bekennt sich zu einem aktiven Umweltschutz; in den 70er Jahren wurde das erste Umweltprogramm verabschiedet [Bundesregierung (2006)], 1994 wurde mit der Aufnahme des Artikels 20a in das Grundgesetz der Schutz der Umwelt zum Staatsziel ernannt. Die „Abwesenheit von Umweltverschmutzung“ hat den Charakter eines öffentlichen Gutes. Individuell rationalen Gesellschaftsmitgliedern fehlt also der Anreiz, ihren Anteil zur gesamtgesellschaftlich optimalen Menge dieses Gutes bereitzustellen. Der Markt versagt; es entstehen Wohlfahrtsverluste, die der Staat durch den Einsatz eines umweltpolitischen Instruments vermeiden kann [Schmelzer (1999, S.27)]. Neben ordnungsrechtlichen und ökonomischen Instrumenten wie Verboten oder Steuern werden in zunehmendem Maße freiwillige Selbstverpflichtungen1, also unverbindliche Abmachungen zwischen der Wirtschaft und dem Staat, als Instrument der Umweltpolitik eingesetzt [Knebel et al. (1999, S.303f)]. In der Literatur gehen die Meinungen bezüglich der Qualität von FSV als umweltpolitischem Instrument auseinander. FSV werden teils als Ausdruck politischer Handlungsunfähigkeit betrachtet, mit denen sich kaum eine anspruchsvolle umweltpolitische Zielsetzung verfolgen lässt [vgl. Rennings et al. (1997, S.167)]. Andere Autoren halten den Einsatz von FSV durchaus für begründbar [vgl. Eickhof (2003, S.282)]. Es stellt sich die Frage, inwiefern freiwillige Vereinbarungen als würdige Alternative zu den klassischen Instrumenten dienen können. Dies ist auch die zentrale Frage, mit der sich diese Arbeit beschäftigt. [...]
Inhaltsangabe:Einleitung: Bei der seit mittlerweile 30 Jahren andauernden Diskussion über die Notwendigkeit einer Neuordnung des Gesundheitssystems der Bundesrepublik Deutschland gerät insbesondere in der jüngeren Zeit der Arzneimittelmarkt immer wieder in den Fokus der Reformierungsbemühungen. Im Mittelpunkt der Betrachtung steht dabei in der Regel der Markt für Arzneimittel, die im ambulanten Sektor von Ärzten zu Lasten der Gesetzlichen Krankenversicherung (GKV) verordnet werden. Stark steigende Ausgaben für Arzneimittel im Jahr 2001, die erstmals die Grenze von 20 Milliarden Euro überschritten, veranlassten den Gesetzgeber Ende 2001 mit dem Arzneimittelausgabenbegrenzungsgesetz (AABG) einen neuen Versuch zu unternehmen, die Aufwendungen für Arzneimittel abzusenken. Ein Element des Gesetzespaketes stellt dabei die sogenannte aut idem-Regelung dar, die im Rahmen der hier vorliegenden Arbeit vorgestellt und kritisch hinterfragt werden soll. Sie erlaubt es dem am Arzneimitteldistributionsprozess beteiligten Apotheker, unter bestimmten Umständen ein kostengünstigeres, wirkstoffidentisches Arzneimittel anstelle des verordneten Präparates abzugeben, wenn der Arzt nicht ausdrücklich auf die Abgabe eines bestimmten Arzneimittels besteht. Gang der Untersuchung: Im folgenden Kapitel der Diplomarbeit wird die gesundheitsökonomische Ausgangssituation unter besonderer Berücksichtigung des Arzneimittelmarktes beschrieben. In Kapitel drei erfolgt dann eine eingehende Darstellung der alten und neuen aut idem-Regelung insbesondere hinsichtlich formaler und rechtlicher Aspekte und der daraus resultierenden Probleme. Daran anschließend wird das System bestehender Kostendämpfungsmaßnahmen vorgestellt und die Beziehung der neuen aut idem-Regelung zu einzelnen Maßnahmen beschrieben. Kapitel fünf analysiert dann die gesundheitsökonomischen Aspekte unter Berücksichtigung der am Prozess beteiligten Interessensgruppen der Anbieter- und Nachfrageseite und geht dabei besonders auf Maßnahmen der pharmazeutischen Industrie ein. Am Ende der Arbeit wird dann in einem kurzen Fazit eine zusammenfassende Bewertung der Neuregelung anhand der sich aus der Analyse ergebenden Resultate vorgenommen. Inhaltsverzeichnis:Inhaltsverzeichnis: I.Einleitung1 II.Der Gesundheitsmarkt unter besonderer Berücksichtigung des Arzneimittelmarktes2 1.Der Markt für Gesundheitsgüter und -leistungen2 1.1Allgemeines2 1.2Der Arzneimittelmarkt3 1.2.1Struktur3 1.2.2Angriffspunkte der aktuellen [...]
Jeffrey A. Frankel, Professor an der Harvard University, diskutiert in seinem publizierten Arbeitspapier "Expactations and Commodity Price Dynamics: The Overshooting Model" analytisch die Dynamik des Rohstoffpreises in Abhängigkeit einer makroökonomischen Veränderung. Dabei identifiziert er ein Überschießen des realen Rohstoffpreises als Antwort auf eine Geldmengenerhöhung und den damit verbundenen Rückgang des Zinssatzes in einer geschlossenen Volkswirtschaft. Die empirische Untersuchung des theoretischen Grundkonzepts blieb jedoch unerforscht. Auf Grund dessen knüpft diese Arbeit mit der empirischen Untersuchung der Dynamik des Rohstoffpreises an die Erkenntnisse von Frankel (1986) an. Die Kernfrage lautet dabei explizit, ob sich die theoretisch betrachteten Rohstoffpreisdynamiken auch empirisch im Falle einer offenen Volkswirtschaft bestätigen lassen. Die empirische Untersuchung dieser Arbeit besteht darin, die realen und nominalen Rohstoffpreisschwankungen aufgrund der verschiedenen Einflüsse zu analysieren. Dabei werden die vielfältigen Faktoren in zwei Arten von Störungen zusammengefasst - in reale (z.B. ausgelöst durch Ressourcen- und Technologieänderungen, die zu Angebots- und Nachfrageverschiebungen führen) und nominale Schocks (z.B. monetäre Veränderungen wie eine Geldmengenerhöhung oder die Reduzierung des Zinssatzes). Dieser Ansatz wird unter Verwendung eines strukturellen vektorautoregressiven Modells (SVAR-Modell) nach Blanchard und Quah (1989) realisiert.
Masterarbeit aus dem Jahr 2011 im Fachbereich VWL - Makroökonomie, allgemein, Note: 2,0, FernUniversität Hagen, Sprache: Deutsch, Abstract: Als Reaktion auf die Finanzkrise von 2008 besteht seit dem G20-Krisengipfel von Washington ein internationaler Konsens zur Reformierung des globalen Finanzsystems. Im Zuge der Krise wurden regulatorische Schwachstellen an Basel II ersichtlich. Seither arbeiten der BCBS sowie weitere Normengeber an Finanzmarktreformen, aus denen mitunter im Dezember 2010 die finale Fassung eines neuen Regulierungsrahmens hervorging: Basel III. Innovativ an Basel III ist, dass erstmals ein internationales Regelwerk zur Bankenaufsicht und -regulierung mit einem Fokus auf das gesamte Finanzsystem angestrebt wird, ergänzend zu einer institutsbezogenen Betrachtung. Vorgesehen ist eine Kombination aus makroprudenziellen und mikroprudenziellen Elementen, zusätzlich Eigenkapitalanforderungen ergänzt um Liquiditätsstandards. Ziel ist es, eine nachhaltige Finanzstabilität unter Nutzung von Basel III zu gewährleisten. Im Rahmen dieser Arbeit werden die makroprudenziellen Elemente, die auf dem Weg von Basel II zu Basel III ergänzt wurden, kritisch analysiert und bewertet. So werden zunächst Grundlagen sowie Schwachstellen des Basel II-Regelwerks erläutert, die als Basis für eine Untersuchung von Basel III dienen. In Kapital 3 werden der makroprudenzielle Ansatz sowie dessen Instrumentarium als potenzielle Maßnahme zur Förderung und Sicherung der Finanzstabilität beleuchtet. Darauf aufbauend werden in Kapitel 4 zunächst die Entwicklung von Basel II zu Basel III sowie die wesentlichen Ausgestaltungsmerkmale des neuen Regelwerks diskutiert. Anschließend erfolgen eine kritische Untersuchung sowie eine zusammenfassende Bewertung der in Basel III enthaltenen makroprudenziellen Elemente. Vervollständigend werden Implementierungsvorhaben sowie finanz- und realwirtschaftliche Auswirkungen von Basel III eruiert. Im Ausblick werden abschließend zum einen künftige Herausforderungen aufgezeigt. Und zum anderen soll versucht werden, eine Antwort auf die Frage zu finden, die mit den Bemühungen um die Einführung von Basel III einhergeht: Kann Basel III zukünftige Krisen vermeiden?
Inhaltsangabe:Einleitung: Verwendet man die populäre Online-Suchmaschine Google und gibt im Suchraster die Begriffe Steuergerechtigkeit und Aktuell ein, wird man mit Hilfe der ersten drei Treffer auf nachstehende Schlagzeilen verwiesen: Bundesministerium für Finanzen: Gegen Steuerhinterziehung für mehr Steuergerechtigkeit Bundesverband der Deutschen Entsorgungswirtschaft gegen Rekommunalisierungstendenzen und für fairen Wettbewerb: Der Mindestlohn kommt, wo bleibt die Steuergerechtigkeit? Kahl (SPD): Mehr Steuergerechtigkeit mit SPD-Landesregierung, Rückkehr zu Tarifpolitik und 40-Stunden-Woche. Diese willkürlich ausgewählten Treffer zeigen beispielhaft auf, dass der Themenkomplex der Steuergerechtigkeit zum einen eine große Rolle im aktuellen Tagesgeschehen spielt und darüber hinaus im politischen Spektrum von den verschiedensten Organisationen und Einrichtungen verwendet wird und demzufolge ein nicht zu verachtender Wahlkampf- und Meinungsfaktor zu sein scheint. Bei der tiefergehenden Literaturrecherche hinsichtlich Steuergerechtigkeit stößt man auf folgende These: Die Praktiken der Steuerflucht und Steuerumgehung über die Grenzen der Mitgliedstaaten hinweg führen zum Verlust von Haushaltsmitteln, zur Aushöhlung des Grundsatzes der Steuergerechtigkeit sowie zu Verzerrungen des Kapitalverkehrs und der Wettbewerbsbedingungen. Bereits im Jahre 1974 hat der Rat der Europäischen Union wie er heute genannt wird diese Behauptung aufgestellt, welche seitdem jedoch nicht an Aktualität eingebüßt hat: Bspw. Ruiz Almendral stellt in ihrem Essay ebenso fest: Steuerumgehung als verbotener Unterfall der Steuervermeidung ist daher ein Problem, das die Steuergerechtigkeit berührt. Schenkt man diesen Behauptungen Glauben, scheinen Steuergerechtigkeit und Steuerabwehrmaßnahmen seien es legale oder illegale mit einander korreliert zu sein und zwar augenscheinlich in dem Ausmaße, dass die Gerechtigkeit negativ vom Verhalten der Steuerumgeher beeinflusst wird. Aufgrund der politischen Brisanz des Themenbereichs der Steuergerechtigkeit und der damit einhergehenden Aktualität, jedoch auch nicht zuletzt aus persönlichem Interesse des Autors, wird in der vorliegenden Bachelor-Thesis folgende Arbeitshypothese im Mittelpunkt der Betrachtung stehen: Untergraben Steuerabwehrmaßnahmen die Steuergerechtigkeit eines Staates?' Problemstellung: Ziel und Zweck dieser wissenschaftlichen Arbeit soll ergo darin bestehen, aufzuzeigen, ob zum einen [...]
Inhaltsangabe:Gang der Untersuchung: Mit über 140 innerstädtischen Umzügen je 1000 Einwohner gehörte Dresden im Jahre 1998 zu den Großstädten mit der höchsten Wohnmobilität in Deutschland, obwohl hier zu DDR-Zeiten und noch zu Beginn der 1990er Jahre eine extrem niedrige Umzugsintensität vorherrschte. Dieser „Mobilitätssprung“ in der Mitte der 1990er Jahre und die seit dem bis heute anhaltende hohe Umzugsdynamik ist ein signifikantes sozialgeographisches Merkmal ostdeutscher Städte geworden. Die vorliegende Diplomarbeit versucht die rasante Wohnmobilitätsentwicklung in Dresden im ersten Jahrzehnt der deutschen Einheit näher zu durchleuchten. Einen wesentlichen Teil der Arbeit nehmen dabei die theoretischen Grundlagen zur Wanderungsforschung und die Beschreibung der Transformationsprozesse des Wohnungswesens in Ostdeutschland ein, welche einen faktenreichen theoretischen Hintergrund darstellen und schließlich das Vorgehen im analytischen Teil begründen. Im analytischen Teil werden, neben der empirischen Beschreibung des Umzugsgeschehens, Zusammenhänge zwischen Wohnmobilität, Stadt- sowie Wohnungsmarktentwicklung auf Stadt- und Stadtteilebene nachgewiesen. Als problematisch wird im Ergebnis der Arbeit v.a. gesehen, dass es im Laufe des Jahrzehnts zunehmend zu einer Polarisierung hinsichtlich der Wanderungsbilanzen in bestimmten Stadtteilen gekommen ist und dies eng in Verbindung mit möglichen Auf- und Abwertungsprozessen sowie der Wohnungsleerstandsentwicklung steht. Des Weiteren zeigt sich anhand der Umzugsströme bis zum Jahr 2000 eine Verschiebung der Präferenzen der Umziehenden zunehmend weg vom Baustrukturtyp „Plattenbau“, welcher einen beträchtlichen Teil der Wohnungen in Dresden einnimmt, hin zum (nun sanierten) Altbau. Ebenso zeigen die innerstädtischen Umzugswerte, dass sich der Suburbanisierungsprozess nach 1998 wieder abschwächte. Zur Ergänzung des eher quantitativ-empirischen Hauptteils werden die Ergebnisse einer Befragung in ausgewählten Zuzugsgebieten (Striesen-Ost, Äußere Neustadt, Nickern, Löbtau-Süd) vorgestellt, welche zeigen, dass alle vier Zuzugsgebiete heute eine unterschiedliche Klientel an Zuziehenden ansprechen und sich somit zunehmend Segregationstendenzen innerhalb Dresdens abzeichnen. Inhaltsverzeichnis:Inhaltsverzeichnis: TabellenverzeichnisIV AbbildungsverzeichnisV AbkürzungsverzeichnisVII 1.Einleitung1 1.1Problemstellung und Heranführung an das Thema1 1.2Vorgehensweise, Methoden und Umsetzungsprobleme im [...]
Inhaltsangabe:Einleitung: Bei der Wechselwirkung von Geld- und Fiskalpolitik besteht die Gefahr, dass hohe Budgetdefizite bzw. Staatsschulden langfristig das Ziel der Preisniveaustabilität untergraben können. Parallel mit der Steigerung der Staatsschuld wächst der Druck auf die Zentralbank, die Geldpolitik zu lockern und dadurch die Finanzlage des Staates zu verbessern. Dieser Zusammenhang zwischen Inflation und Verschuldung deutet darauf hin, dass unsolide öffentliche Finanzen eine Bedrohung für die Glaubwürdigkeit der Geldpolitik darstellen können. Diese Gefahr ist auch dann nicht ausgeschlossen, wenn die Zentralbank formell unabhängig ist. Innerhalb der Europäischen Währungsunion, in der eine deutliche Asymmetrie zwischen einheitlicher Geldpolitik und nationalen Fiskalpolitiken existiert, kommt diese Problematik noch deutlicher zum Ausdruck. Diese Arbeit wird sich auf die Staatsverschuldung in den Ländern der Europäischen Union (EU-15) konzentrieren und ihre Rolle für die Glaubwürdigkeit der Geldpolitik der Europäischen Zentralbank (EZB) diskutieren. Es wird die Gefahr für die Stabilität erörtert und nach möglichen Lösungskonzepten bzw. institutionellen Reformen gesucht, die eine wirksamere Straffung der Staatsfinanzen erreichen könnten. Für die Glaubwürdigkeit der Geldpolitik ist es von besonderer Bedeutung, dass Geld- und Fiskalpolitik im Euroraum unabhängig voneinander ausgeübt werden. Ziel ist, dass der Stabilitätskurs der Geldpolitik nicht durch Interessen der politischen Institutionen beeinflusst wird. Wenn die EZB und die Regierungen der Mitgliedsstaaten ihren Verpflichtungen bezüglich Preisstabilität bzw. ausgeglichenen Haushaltsfinanzen getrennt nachgehen, dann würde kein Glaubwürdigkeitsproblem existieren. Tatsächlich ist es aber im Euroraum möglich, dass die Fiskalpolitik Einfluss auf die Zentralbank erhält. Das kann direkt erfolgen, wenn etwa die Regierungen politischen Druck für eine expansive Geldpolitik ausüben. Indirekt besteht auch die Möglichkeit, dass über die Besetzung der Zentralbankpräsidenten und der Direktoriumsmitglieder die europäische Geldpolitik beeinflussbar ist. In dieser Hinsicht kann die zunehmende Verschuldung in Europa die Inflationsrate im gesamten Eurogebiet erhöhen und die Glaubwürdigkeit der Geldpolitik in Frage stellen. Um die Glaubwürdigkeit der Geldpolitik zu schützen, wurden fiskale Regeln eingeführt, die die Länder abhalten sollen, übermäßige Defizite bzw. Schulden zu akkumulieren. In der EWU [...]
Masterarbeit aus dem Jahr 2012 im Fachbereich VWL - Umweltökonomie, Note: 1,3, Georg-August-Universität Göttingen (Professur für Wirtschaftspolitik und Mittelstandsforschung), Sprache: Deutsch, Abstract: Nachhaltigkeit wird in der Wirtschaft immer wichtiger, da die zunehmende Verknappung von Ressourcen sowie steigende Umweltregulierungen dazu führen, dass Unternehmen immer effizienter wirtschaften müssen. Im Besonderen stehen Energieversorger unter dem ständigen Druck, die Versorgung mit Energie gleichzeitig umweltverträglich und preiswert sicherzustellen, aber dabei zunehmend auf traditionelle Energieträger, wie Kohle und Gas, zu verzichten. Inwieweit sich die Energieversorger bisher mit den Konsequenzen ihres Wirtschaftens und den daraus resultierenden Auswirkungen auf die Umwelt auseinandergesetzt haben und wie sie den Begriff der Nachhaltigkeit im eigenen Unternehmen definieren, wird in dieser Arbeit untersucht. Die folgende Forschungsfrage wird hierbei beantwortet: Welche Anwendung findet der Nachhaltigkeitsbegriff in den Nachhaltigkeitsberichten von Energieversorgern? Zur Beantwortung dieser Frage werden zunächst die zu verwendenden Definitionen des Nachhaltigkeitsbegriffes im 2. Kapitel erläutert. Es wird auf die Definition von PERMAN (vgl. Perman 2003), auf starke und schwache Nachhaltigkeit sowie auf das Drei-Säulen-Modell eingegangen. Zusätzlich werden die Gebrauchskategorien der nationalen Nachhaltigkeitsstrategie der Bundesregierung analysiert. Im 3. Kapitel werden zunächst Grundlagen der Berichterstattung erläutert. Dazu gehört die Betrachtung der Motivation der Unternehmen, Nachhaltigkeitsberichte zu veröffentlichen sowie die relevanten Stakeholder, die ein Interesse an der Veröffentlichung der Berichte haben. Des Weiteren erfolgt die Erläuterung des Leitfadens der „Global Reporting Initiative“ (GRI), der einen de facto Standard für die Nachhaltigkeitsberichterstattung darstellt und von allen in dieser Arbeit betrachteten Energieversorgern angewendet wird. In Abschnitt 3.2 wird der Untersuchungsgegenstand genauer abgegrenzt. Die Analyse des Nachhaltigkeitsbegriffes im Abschnitt 3.3 umfasst die Nachhaltigkeitsberichte aus den Jahren 2005 bis 2010 der vier großen Energieversorger E.ON, RWE, EnBW und Vattenfall. Hierbei werden die Nachhaltigkeitsberichte der Energieversorger auf die Gebrauchskategorien untersucht, die in den Abschnitten 2.2 – 2.5 definiert wurden. Die daraus resultierenden Ergebnisse werden anschließend in die im Abschnitt 2.7 entwickelte Matrix der Gebrauchskategorien abgetragen. Abschließend werden die Ergebnisse zusammengefasst.
Bachelorarbeit aus dem Jahr 2013 im Fachbereich VWL - Verkehrsökonomie, Note: 1,0, Fachhochschule Worms , Veranstaltung: Airlinemanagement, Sprache: Deutsch, Abstract: Stetig wachsende Herausforderungen der Unternehmensumwelt kennzeichnen heutzutage die Airline Branche. Wirtschaftliche Marktstrukturen definieren sich ständig neu und müssen sich aufgrund der Globalisierung, der Dynamisierung von Märkten und Wettbewerb, sowie externen Einflußgrößen neuen Herausforderungen stellen. Somit rückt die optimale Positionierung und strategische Ausrichtung unter Berücksichtigung von Preis und Leistung in den Fokus der Unternehmensentscheidungen. Der Luftverkehr ist ein Beispiel für einen hohen Wettbewerb mit sich ständig wandelnden Marktstrukturen. Dies ist bedingt durch ständige Marktein- und austritte, neue Konkurrenten, durch die Globalisierung, die Europäisierung und damit einhergehenden Gesetzesänderungen und steigende Preise, vor allem für Kerosin. Politische Auflagen wie die Luftverkehrsteuer, das Nachtflugverbot an einigen Flughäfen bringen weitere Wettbewerbsnachteile mit sich. Der Luftverkehr steht zudem im Fokus der Aufmerksamkeit, da er aus dem geschäftlichen und privaten Reisen nicht mehr wegzudenken ist. Seit einigen Jahren drängen sogenannte Low Cost Carrier in aggressiver Weise auf den Markt. Dies ist auf verschiedene Faktoren zurückzuführen. Zum einen sind als Folge der Liberalisierung des europäischen Luftverkehrs die Markteintrittsbarrieren gesunken. Zum anderen hat sich das Kundenverhalten dahingehend verändert, dass inzwischen ein Trend zum Billigfliegen festgestellt werden kann. Durch neue Technologien und veränderte Strategien wird nunmehr Reisen auch für die niedrigeren Einkommensschichten attraktiv. Dies eröffnete einen völlig neuen Markt. Folglich treten ständig neue Marktteilnehmer auf den Markt und verändern oder erweitern ihr Angebot mit strategischer Ausrichtung zum Low Cost Charakter, wodurch sich der Wettbewerb intensiviert. Dabei ist ungewiss, wie der zukünftige Markt der Low Cost Carrier sich entwickeln wird, da externe Faktoren und Kostensteigerungen sowie Umstrukturierungen und neue Strategien den Wettbewerb verändern. In dieser Arbeit werden zum einen Chancen und Herausforderungen der Low Cost Airlines am Beispiel von Ryanair, Norwegian, Germanwings und Hop! auf Basis der fünf Wettbewerbskräfte und den Wettbewerbsstrategien nach Porter analysiert werden. Des Weiteren werden Besonderheiten dieser Airlines unter dem Aspekt des Wettbewerbs, aber auch im Hinblick auf Stärken und Schwächen, exponiert. [...]
©2019 GoogleSite Terms of ServicePrivacyDevelopersArtistsAbout Google|Location: United StatesLanguage: English (United States)
By purchasing this item, you are transacting with Google Payments and agreeing to the Google Payments Terms of Service and Privacy Notice.