Management Support Systeme

at Universität Augsburg

Join course
434
Next exam
FEB 19
Discussion
Documents
Flashcards
Ergebnisse sind da!
View 6 more comments
Doch absolut! Interessante Themen und toller Lehrstuhl. Würde das jederzeit nochmal schreiben
Ja kann ich zustimmen. Gutes Fach und nicht so langweilig und trocken wie viele andere
Sind Real-Time BI und Right-Time BI das selbe? oder gibt es Unterschiede? Wenn ja, welche gibt es?
View 1 more comment
Laut Workshop ist es wohl das gleiche: Grundsätzlich geht es bei Real-Time BI darum, Analyseergebnisse schneller zur Verfügung zu stellen als in klassischen Data-Warehouse-Anwendungen. Es bedeutet allerdings NICHT, dass alles sofort ;„instantaneous“Ϳ zur Verfügung gestellt wird. Es gibt vielmehr eine Abwägung, welche Daten in welcher Geschwindigkeit benötigt werden (Anforderungen des Geschäftsfalls). Daher ist auch von Right-Time die Rede
ist unwichtig und nicht klausurrelevant
Wie fandet ihrs so?
Gut, war fair
Weiß jemand wie die Notenverteilung in MSS ausfällt, also mit wieviel Prozent bestanden, mit wieviel Prozent 1,0 usw. (Mag mir ungefähr ausrechnen was ich habe)
Wieso ist bei Übung 6 Folie 10 der Kaufpreis weggelassen worden beim Sternschema?
View 8 more comments
Die Autofarbe ist aber für ein einzelnes Auto zumindest fest. Der Kaufpreis hingegen nicht, da verhandelt werden kann. Naja hoffen wir einfach mal dass sowas verwirrendes nicht drankommt
und wenn dann einfach anfechten :P
Was genau sagt die Hub-and-Spoke Architektur denn aus?
View 1 more comment
hast du auch die Vor- und Nachteile davon? :)
Nachteil ist denke ich, dass wieder Rechenleistung gebraucht wird, die Architektur komplizierter wird und es mehr potenzielle Fehlerquellen gibt. Vorteil sollte sein, dass man möglicherweise Redundanzen hat, wenn ein Element ausfällt, quasi als Sicherungskopie. Und dass auf die einzelnen Data Marts nur der zugreift der in der jeweiligen Abteilung arbeitet. Kann also für stark dezentralisierte Unternehmen von Vorteil sein.
"Im Berichtswesen werden Daten ausgewertet, z.B. mit Hilfe von statistischen Analysefunktionen" Was meint man mit statischen Analysefunktionen?
Beispielsweise das Durschnittsalter der Kundschaft (statistische Funktion hier: Mittelwert)
Leider versteh ich die Geografische Analyse noch überhaupt nicht. Ich hab schon im Internet geschaut finde da aber auch leider keine passenden Quellen. Z.B. bei der Pufferfunktion: Der Linienpuffer analysiert die Erreichbarkeit. Aber es heißt, dass es nur die Luftdistanzen betrachtet. Aber was schaut er dann? Die Straßen sind ja dann nicht unbedingt Luftdistanzen. Das gleiche Problem habe ich bei dem Kreispuffer. Macht man dann einfach um jede mögliche Filiale einen Kreis. Mach ich alle gleich groß bzw. wie und was analysiert man in dem Schritt, wenn man z.B. nicht die Bahngleise berücksichtigt. Wäre echt sehr danbar!:)
View 4 more comments
Die Netzwerkfunktion kannst du dir wie einen Routenplaner vorstellen. Es wird anstelle auf Luftlinien zu setzen bspw. ein Netz aller Straßen oder aller Schiffsrouten verwendet und anhand dessen dann z.B. ein Einzugsgebiet berechnet - im Endeffekt z.B. also wie bei einem Kreispuffer, nur dahingehend genauer, dass die tatsächlichen Wege berücksichtigt werden und nicht nur von einer Luftlinie ausgegangen wird. Zudem kann man mit einer Netzwerk-Karte bspw. auch kürzeste Wege berechnen, wie es eben ein Navi tut.
Dankeschön!
Kann mir bitte jemand den Unterschied zwischen Underkill und Overkill erklären?
View 5 more comments
Skript Seite 94 IWI illi IMayIer Underkill: IBI illi IMayIer (Wird rausgeworfen, obwohl gleich. Z.B. am Telefon den Namen falsch verstanden und einen neuen Kunden angelegt) Overkill IWIilly IMayIbaum (Wird als gleich angenommen und ist es aber nicht)
Vielen vielen Dank!
Kann mirbitte jemand erklären, wie man auf die Ergebnistablle im Apriori-Algorithmus kommt?
View 20 more comments
ne, das passt Tim! :) Vielleicht noch die Bissantz numbers ;-)
Dankeschön!
Was genau versteht man denn nun unter Informationsbedarfsanalyse? Im Skript steht ja nur es gibt eine deduktive und indiktive Analyse und dass die deduktive besprochen wurde. Ist damit alles vorhergehendr gemeint, oder was gehört da dazu?
View 3 more comments
ok danke, icb versuchs mir noch alles auswendig zu merken..
Man analysierte, welche Informationen man braucht/es "bedarf", um zu wissen, welche Daten man bereitstellen muss
Sorry für die dumme Frage, aber wofür steht HLB-Markt ?😅
View 1 more comment
Happy Life Bio-Markt - der fiktive Supermarkt aus der Fallstudie
Alles klar, danke 😂
Was genau ist ein Data Mart und was sind z.b Merkmale davon?
Ist das gleiche wie ein Data warehouse nur Bereichsorientiert. D.h. dm gibt es z.b. für Abteilungen oder UnternehmensBereiche ( Forschung und Entwicklung), das Dwh hat eine unternehmens- bzw. Konzernreichweite. D.h. es gibt logischerweise mehrere DM in einem Unternehmen ( da mehrere Abteilungen, Verantwortungsbereiche) aber nur ein oder wenige DWH im Unternehmen.
Data Mart ist sozusagen ein Speicherort, der für bestimmte Bereiche oder Abteilungen dient. Deswegen gibt es mehrere und die werden wiederum zusammengetragen. Bei Data Warehouse ist es dagegen nur ein zentraler Speicherort oder sehr wenige, wo alle Daten des Unternehmens zusammengeführt werden.
Kann jemand den Unterschied zwischen Instance Level und Schema Level erklären? Instance Level ist soch wenn man falsche Eingaben macht, und Schema Level sind Fehler im Datenmodell. Aber was meint man mit Fehler im Datenmodell? Die Beispiele von den Übungen hab ich nicht verstanden
View 5 more comments
Datenschema ist der Aufbau also die geforderte Struktur eines Attributs und eine Instanz ist dann die tatsächliche Ausprägung. Sagen wir z.B. wir haben eine Tabelle "Auto". Diese beinhaltet die Attribute Name, PS und Farbe. Dann ist das das Schema. Nun hat man das Objekt mit dem Name "Audi RS6", PS "605" und Farbe "rot". Das ist eine Instanz, also konkrete Daten für ein Objekt.
Schema-Level sind Fehler beim Datenmodell, d.h. beispielweise wenn man PLZ in der Datenquelle (Single-Source) hat und nur Buchstaben eingeben kann, obwohl Zahlen relevant sind. Instance-Level, also Fehler beim Eintippen, ist z.B. bei einer Datenquelle (Single-Source) bei PLZ „Augsburg“ eingibt. Bei Multi-Source Problemen muss man mehrere Datenquellen betrachten. Bei Schema-Level wäre beispielweise wenn bei einer Datenquelle die Tabellenbeschriftung „Kunden-Nr“ heißt und bei der anderen Datenquelle „KDNR“ und bei Instance-Level wäre z.B. wenn bei einer Datenquelle bei Alter das Alter steht und beim anderen unter Alter das Geburtsdatum.
Wie ist das mit den Zusatzartikeln, wie genau lernst ihr die? Habe grafe gemerkt, dass ich sie außerhalb der Uni nicht mehr runterladen kann, jedoch Fragen dazu in den Übungen besprochen und hochgeladen wurden. Reicht da ein grober Überblick? Wurde dazu vielleicht etwas gesagt? Danke!
View 2 more comments
garnicht
Ich habe mir nur die Übung dazu angeschaut..
weiß jemand, was mit dem Punkt "Beeinflussung *Blitz* -> Anspruchsgruppen" auf S. 28 gemeint ist?
View 1 more comment
ich habe mir dazu noch aufgeschrieben, dass Beeinflussung nicht das ziel ist von Management- Berichten -> den Punkt lern ich nicht :)
Damit ist gemeint, dass man anhand Berichten, die Zielgruppen beeinflussen kann. Z.b. Wenn man einen neuen Lieferanten sucht, kann man ihn anhand des Berichts beeinflussen und vielleicht handeln oder ähnliches. Aber Blitz, weil es möglich ist, aber gehört nicht wirklich zu den Zwecken.
Das kann man doch nie alles auswendig wissen?
Das denk ich mir auch immer wieder.
kann mir einer sagen was für eine spezielle BI Software spricht ? S.71 LG
Ist der Stoff ab S.105 noch relevant?
nein
Sind die phonetischen Verfahren relevant?
Prof meinte man sollte schon wissen was das ist aber ist denke ich nicht im Detail relevant (nur meine Einschätzung, keine Garantie)
ok, danke!
Hallo, habt ihr etwas zu den Seiten 74 und 75 aufgrschrieben, ich habe da leider gar nichts dazu?
Schau ein bisschen weiter unten, da wurde die Frage bereits beantwortet :)
Lernst ihr die Geo-Anlayse im Detail?
View 2 more comments
@Nie Mand, was genau meinst du mit Muster, Bedingung und Auswirkung?
Das sind die Fragestellungen die die geo. Analyse untersucht
Was ist der Unterschied zwischen Overlayfunktion und Netzwerkfunktion?
versteh ich auch nicht...
So wie ich das verstehe dient die Overlayfunktion dazu, dass die Datensätze aus verschiedenen Analysen übereinandergelegt werden um somit Überschneidungen zu finden die alle Auswertungskriterien erfüllen. Die Netzwerkfunktion bildet eine Region als eine Art Graph ab mit Knoten und Kanten. Damit kann erreicht werden, dass mathemat. Optimierung auf die Region angewendet werden kann wie zB die Ermittung kürzester Wege. Sie ist der Pufferfunktion überlegen, da nicht nur Luftliniendistanzen berücksichtigt werden sondern Verkehrsinfrastruktur, Geschwindigkeitsbegrenzungen und andere pot. Hindernisse. Ergebnis ist somit ein genaueres Einzugsgebiet
Zu Seite 53: ∑ (50𝑖 ) 50 𝑖=1 = 1 125 899 906 842 623 Ich hab jetzt gefühlt schon alles mit dem Taschenrechner versucht... Kann mir jemand erklären, wie man das in den Taschenrechner eingeben muss, um auf die Anzahl der Kombinationen zu kommen?
View 5 more comments
Und was würdest du da für eine Antwort schreiben?
Zu (1): Weil die Anzahl der möglichen Kombinationen selbst bei relativen kleinen n sehr hoch wird. Bei 50 Artikeln hast du schon 1,1 * 10^15 Kombinationen. Im Skript war ja das Beispiel, dass man für 60 Artikel mit einem normalen Prozessor grob 10 Jahre brauchen würde, um alle Kombinationen zu ermitteln. Ein Supermarkt hat ja nicht nur 60, sondern tausende Artikel. Es ist einfach nicht möglich alle Kombinationen zu betrachten. (2): Es gilt: sup(A => B) <= min{sup(A); sup(B)} Es wird zudem ein Mindestsupport gesetzt. Wenn eine Regel nicht den Mindestsupport erfüllt, werden weitere Kombinationen dieser Regel mit anderen Objekten nicht mehr betrachtet. Es ist mir aufgefallen, dass der Term oben mit dem Summenzeichen und dem Binomialkoeffizienten äquivalent zu (2^n) - 1 ist. Das ist, denke ich, einfacher zu merken und in den Taschenrechner einzugeben.
Ist Data Mining and Knowledge Discovery in Databases klasurrelevant bzw. lernt ihr das?
View 3 more comments
Also ich kann es auch noch nicht auswendig, aber man kann Data-Mining als Teilschritt des Knowledge Discovery einordnen. Und die anderen Teilschritte sind dort auch aufgelistet und erklärt
Ja genau das habe ich gelernt inzwischen. und dann noch die Methoden des Data Mining
Hat jemand die Vor- und Nachteile für die deduktive und induktive Analyse (S.83) notiert ? Ich hab sie nur teilweise mitbekommen leider. Ich hab: Ind: Praxisnähe (positiv) und "Benutzer meist nicht in der Lage, die Daten auszuwerten" (negativ) Vielen Dank schonmal :)
View 5 more comments
Ist deduktiv jetzt kostengünstiger oder teurer? ^^
würde sagen teurer
Kann jemand jeweils ein Beispiel für Extraktion, Transformation und Laden nennen? Also Extraktion sind zb CRM-Systeme oder ERP-Systeme. Aber was ist ein Beispiel zu Transformation und Laden?
View 2 more comments
Danke!! Ja das wolle ich :)
Was würdest du bei Aufgabe 3a und 3b in der Klausur hinschreiben?
Es gab nur einen Gastvortrag richtig?
View 1 more comment
Ach du schande, ich seh es auch gerade! das ist ja bock viel!
ich glaube viele haben das Problem, dass man gar keine Notizen hat, obwohl man dort war, weil überhaupt nicht ersichtlich war, was bei den Gastvorträgen wichtig ist für die Klausur...
Weiß jmd was auf Seite 74 und Seite 75 hinkommt? Wäre echt nett :)
View 1 more comment
Es werden zwei sehr extrem gegenstätzliche Datenmodelle gezeigt: Viele Abhängigkeiten (s. 73) und alles in einer Tabelle (S.74) Zu S. 74: Fragen aus Schritt 3 und 4 waren: - Welche Rabatte führen bei welchen Kkundengruppen zur Nachfragesteigerung - Wie hoch ist die Zahlungsbereitschaft welcher Kundengruppe bei welchem Produkt - Welche Produkute mussen wann & wo in welchen Mengen entsorgt werden - Welche Produkte generieren den meisten Umsatz -.... Eignet sich das Datemodell dafür diese Fragen zu beantworten: - Basisfragen lassen sich beantworten - z.T. fehlen Informationen (z.B. Zahlungsbereitschaft) - Datenbanktechnisches Problem: Viele Tabellenverknüpfungen -> lange Antwortzeiten Zu S.75: Datenmodell zweckmäßig da: - keine Verknüpfungen -> schnelle Antwortzeiten Nicht zweckmäßig, da: - sehr geringe Normalisierung (<1.NF) -> sehr viele Redundanzen, funktionelle und transitive Abhängigkeiten - Auswertung bestimmer Attribute nicht möglich, da sie nicht Atomar sind (z.B. Adresse alles in einem Attribut) --> Was soll der Sinn dahinter sein: Für Olap braucht man ein Datemodell dass eine Mischung der beiden Datenbankmodelle darstellt (nicht zu verknüpft, aber auch nicht zu allgemein) -> Stern Schema als mögliche Lösung
Vielen Dank! :)
Warum ist in ÜB04 bei der Apriori Aufgabe in Phase 1, Iteration 2 bei C3 {Brot, Butter, Wurst} nicht dabei? Das wäre doch auch eine mögliche Kombination von L2 oder? Danke schonmal :)
View 3 more comments
Danke :)
@ Zapfsäule: Das wäre ein Fehler. Ziel des Algorithmus ist es ja die Anzahl an Berechnungen und damit die Berechnungszeit zu reduzieren. Aus diesem Grund schreiben wir {Brot, Butter, Wurst} erst gar nicht in C3 rein, weil wir wissen, dass es eh nicht relevant sein kann und wir es somit gar nicht erst berechnen müssen.
Hat jemand die Vor- und Nachteile von Dashboards und Management Cockpits (Folie 32)? Vielen Dank euch!
View 2 more comments
Erstes Bild: - Positiv: -- Sparklines (Zeitreihen) unten links -> gute Vergleichbarkeit - Negativ: -- viel zu viele Farben: Sorgt nur für Verwirrung --> weniger Farben einssetzen -- Kreisdiagramme bei Key Risks sind schwer zu vergleichen --> andere Darstellung wählen -- Key Metrics: Keine Sortierung mit Hilfe von Farben (da Farben trennen) sondern mit Hilfe von Intensitäten (vgl. Gastvortrag) -- Verwendung grün-rot anstatt blau-rot zur Gegenüberstellung von positiv, negativ -- Key Metrics: 4 Balkendarstellungen zeigen unterschiedliche Ausschnitte an (von 87%-100%, von 0% bis 20%, von -20% bis 20% und von 0 bis 110) -> schlecht vergleichbar, da immer ein unterschiedlicher Ausschnitt aus dem Gesamtzusammenhang Zweites Bild: -Positiv: -- sehr hohe Informationsdichte -- Verwendung von "nur" 2 Farben -- Kontrast wird mit blau rot anstatt mit grün rot dargestellt (vgl. Gastvortrag Farben) -- Sehr gute Vergleichbarkeit der Kennzahlen (untereinander) -- Abweichungen werden zusätzlich mit Vorzeichen dargestellt (vgl. Gastvortrag Farben) Negativ: -- Grafik zum lenken fehlt, ggf. "zu viele" Zahlen -- Man hätte den Bericht ggf. besser aufbauen können: Es folgt 4 Mal untereinder dasselbe (Umsatz, Rabatt, Erlösschmälerung, Lohnkosten, Materialkosten, Deckungsbeitrag) -> ggf. nur einmal nennen und Kennzahlen anders sortieren
Nie Mand! Du bist der Hammer hier!
Hat jemand die Vor- und Nachteile, die mit den alternativen Systemarchitekturen verbunden sind, notiert ? Habe grade bemerkt, dass ich dazu garnichts aufgeschrieben habe.. Wäre nett, wenn mir da jemand helfen kann. (Seite 89)
View 5 more comments
Jemand soll halt schnell im Forum nachfragen was die Vor und Nachteile sind. Ich hab leider kein Zugriff auf die Veranstaltung
Abhängiges DWH: - Vorteile: --Orientiert sich eher an der bestehenden IT-Architektur im Unternehmen und somit weniger Aufwand, Kosten - Nachteile: --Meherer Aufwendige Transformationsprozesse notwendig (Von Quelle in DM und vom DM in DWH) -> 2xTransformieren --Je neue Quelle ein mehere neue ETL Prozesse zu den Data Marts --Datenüberschneidungen in den Datamarts --Hohe Abhängigkeiten des DWH von den Data Marts -> funktioniert ein DM nicht, funktioniert ggf. das ganze DWH nicht mehr
Hat jemand im Skript zu Seite 93 etwas mitgeschrieben? Zu der Frage: Was könnte man unternehmen, um die oben gefundenen Probleme mit möglichst geringem personellem Aufwand zu lösen?
Ich denke die Frage zielt darauf ab, dass am ein PC-System verwendet nud somit soll die Frage auf die nächsten Seiten führen. Auf denen das Matchcode- und Phonetisch-Verfahren erklärt ist.
Man kann Fehler bei der Dateneingabe reduzieren durch Konsistenzprüfung, Rechschreibprüfung, Vollständigkeitsprüfung, Auswahlfelder, Pflichtflelder... Ausderdem kann die Unterstützung von Tools den personellen Aufwand reduzieren: - Tool zum automatischen Codieren, Decodieren (M,W) -> (1,0) - Tool zur Vereinheitlichung der Attributssyntax z.B. bei der Kundennummer - Tool zur automatischen Identifikation von Mehrfacheinträgen (wie z.B. Phonetische Verfahren, Matchcode Verfahren)
ist ne gute note machbar wenn man morgen anfängt?
View 2 more comments
Nein, wird sie nicht sein. Es kommen auch Rechnungen dran und so was wie Beispiele nennen, wo man sich ja eig einfach nur was ausdenken muss. Außerdem kann man den Stoff locker an einem Tag auswendig lernen.
ja das ist machbar!
Hat jmd was bei S. 92 und 93? (Ordnen Sie bitte dementsprechende Fahler aus den obigen Kundendaten-Tabellen nach den im Artikel vorgestellten Kategorien)
Wär jmd so nett und kann bitte seine Mitschrift von den Gastvorträgen teilen?:)
Wo findet man die Moodle Aufgaben? Danke sehr
Es gibt keine
Denkt ihr die Klausur ist ohne Vorlesung machbar, bzw sind die Mitschriften auf Digicampus ausreichend ? Vielen Dank schonmal !
Hat jemand Mitschriften zu den Gastvorträgen die er teilen möchte? Oder irgendwie ne Zusammenfassung? Ich war bei beiden da, kann mich aber kaum erinnern...und meine eigenen Mitschriften sagen nicht viel aus außer dass Blau das bessere Grün ist
View 1 more comment
Hab ich gelesen, aber da geht's ja wirklich nur um Farben. Ist das wirklich alles was wir aus dem Bissantz Vortrag wissen müssen?
Ich kann dir nicht sagen, ob des alles ist was wir davon wissen müssen, aber ich hab im Kopf, dass es mal erwähnt wurde. Was hat noch gesagt wurde, war die Darstellung: Zeitvergleich, Große Zahlenwerte größer schreiben, Farben Blau und Rot, usw.
Sind die Gastvorträge klausurrelevant?
Aber sowas von!
Ich glaube von Vortrag von "Bissantz" ist hauptsächliche das Thema mit der Farbwahl zu Blau und Rot relevant
Hallo Zusammen, ich bin gerade zurück aus meinem Auslandssemster und würde die Klausur gerne noch schreiben. Könnte mir jemand sagen ob Themenbereiche ausgeschlossen wurden bzw ob alles relevant ist und wie die Klausur aufgebaut ist
- Kap. 4 Forschung eher weniger klausurrelevant reicht wenn man die beiden Grundideen der Ansätze weiß - Exkurs: Normalformen auch nicht im Detail wichtig, man sollte nur wissen dass es Normalformen gibt und welchen Zweck sie verfolgen ansonsten alles relevant
Danke !!
Ist die klausur eine MC-Klausur?
View 1 more comment
also keine Programmiersprache?
Nein keine Programmiersprache
Lernt ihr das letzte Kapitel? Ich weiß nicht genau, was ich mit den letzten paar Seiten anfangen soll und Forschung soll ja anscheinend eh nicht im Detail relevant sein?
Forschung ist natürlich relevant
Hallo, ich konnte in der letzten Vorlesung leider nicht da sein. Könnte mir jemand sagen, ob es noch wichtige Hinweise für die Klausur gab, ob Theman ausgeschlossen wurden oder ähnliches? Danke!
View 7 more comments
Ok super, vielen Dank!
Woher soll man wissen dass dazu explizit nichts gefragt wird? Das gibt doch kein Dozent so bekannt. Sind das wieder mal Fake News? Das ist in letzter Zeit echt anstrengend hier..
Hallo, weiß jemand, wo es die Unterlagen für die Übung gibt bzw. ob es überhaupt welche gibt? Im Digicampus finde ich nichts. Danke!
Die Lösungen sind im Dokument 01_Lösung im Digicampus zu finden ;)
Hallo, kann jemand noch mal kurz ( 2-3 Satze) erklaren, was Ampelsystem und diese Sachen bedeutet. Ich hab heute die Vorlesung besucht, aber es war zu viel about it gesagt und Ich habe gemischte Meinungen im Kopf. Danke!
auch wichtig für die Klausur: Single-Source Problems - nicht zulässige Werte, z.B. Geburtsdatum=Hase - Verstöße gegen Attributszusammenhänge, z.B. Alter=18 & Geburtsjahr=1805 - Identifikationsnummern sind nicht eindeutig, z.B. Anonymes Notizbuch & Anonymer Regenschirm haben ID=12345 - fehlende Werte, z.B. Attribut Geschlecht hat keinen Wert Multi-Source Problems - Bezeichnungskonflikte, z.B. Kunde in Tabelle 1 & Client in Tabelle 2 ermöglichen keine eindeutige Zuordnung - Strukturkonflikte, z.B. unterschiedliche Längen von Schlüsselattributen wie Kundennummer 4-stellig vs. 5-stellig - unterschiedliche Datentypen, z.B. Geschlecht als männlich/weiblich und 1/0 codiert - redundante Datensätze, z.B. Datensatz 1 mit A. Notizbuch und Datensatz 2 mit Anonymes Notizbuch
View 3 more comments
thank me now #wannacry
Danke dir, so konnte ich wenigstens ein paar Punkte gut machen ^^
Hallo ihr alle, habe mich mit dem Lehrstuhl in Kontakt gesetzt bzgl des gastvortrages und in vielen nervigen E-Mails erklärt, dass wir alle keinen Zugriff auf Infos vom Vortrag haben und jetzt gerade habe ich eine Mail bekommen, dass der gastvortrag doch ausgeschlossen wird und ich die Info an euch weitergeben soll! 🎉🤗
View 5 more comments
Und wenn die Info nicht stimmt? Irgend ner anonymen Meldung auf Studydrive glauben? Mach ich lieber nicht. Am Ende kommt es dran und ich bin am Arsch!
He du anonyme CD glaubst nur ans schlechte im menschen? Was hätte ich denn davon euch zu verscheissern? Und eine anonyme Meldung ist es nicht, da mein Name ja angezeigt wird im Gegensatz zu deinem 😄
OLAP & OLTP solltet ihr euch besonders anschauen
Warum das? Was denkst du was da genau abgefragt werden könnte?
OLAP = Online Analytical Processing. OLAP ist die Speicherung der Daten in einer Form, die analytische Zwecke unterstützt. OLTP = Online Transaction Processing. OLTP ist die Speicherung der Daten in einer Form, die transaktionale Zwecke unterstützt.
Load more
9 documents in this course
+ 2
1
288
-
-
Exams
+ 1
0
265
Description
Summer 2016
Meier
Summaries
+ 2
2
251
Description
Summer 2015
Wurstsalat
Exams
Description
Summer 2017
-
Summaries
-
-
Summaries
+ 1
0
210
Summer 2017
-
Exams
+ 1
2
167
Description
Summer 2017
-
Summaries
+ 1
0
103
Description
Summer 2017
Meier
Summaries
+ 1
0
43
Description
Summer 2017
Meier
Summaries
There are no flashcards for your course yet
Get 200for your first flashcard set with at least 15 cards and 
2–5for every follower or user learning with your set. 
Credits can be traded forawesome rewards.