Samstag, 31. Dezember 2016
von gedankenpolier
Keine Kommentare

BI Tool Jedox Backup Skript auf Linux Server

Schon lange hatte ich es vor, mal was neues und anderes zu präsentieren.
Hier nun mal etwas aus der beruflichen Praxis, was seit über einem Jahr ganz gute Dienste erbringt. Vielleicht kann es ja jemand gebrauchen und vielleicht schaffe ich es demnächst mal etwas mehr zu veröffentlichen.

Folgendes Skript enthält alle Anweisungen um das BI-Tool Jedox auf einem Linux-System (Suse-Server) zu stoppen, sichern, aufzuräumen und wieder zu starten.
Es wird jeden wochentäglichen Abend um 22 Uhr über einen Cron-Job ausgeführt.
Das Konzept mit dem speziellen Benutzer mussten wir einführen, da wir auf den Servern keine root-Berechtigungen haben (der Nutzer jedadmin hat lediglich sudo/root Rechte zum Ausführen des Befehls /opt/jedox/ps/jedox-suite.sh und zum Ändern der Berechtigungen der Dateien und Ordner unter /opt/jedox/).
Ansonsten unterscheidet sich der Aufbau zum originären Jedox durch die Trennung der Daten von der Anwendungsebene. Folgende Verzeichnisse wurden deshalb extra angelegt und unter einem eigenen Mountpoint gespeichert:

  • /opt/jedox/Data/data_etl/
  • /opt/jedox/Data/data_files/
  • /opt/jedox/Data/data_olap/


die Verknüpfung zu den storage, Data und tomcat…data Verzeichnis geschieht über einen Mountpoint bind.

Der Code sollte selbst sprechend sein:


# Programm: backup_script_jedoxdaten.sh
# Autor : Thomas
#
# Inhalt : 1. Jedox stoppen
# 2. Sicherung der Jedoxdaten (/opt/jedox/Data) und Anlegen einer Logfile als Tagessicherung / Vollsicherung am Montag und dann inkrementelle Sicherung am Di, Mi, Do, Fr.
# 3. Jedox starten
# 4. Aufraeumen: Logfiles, älter als 90 Tage, werden gelöscht/Backups älter 14 Tage werden gelöscht

# Datum : 23./29.10.2015
# Aenderung: 05.02.2016: Aufraeumem erweitert - Backups aelter 14 Tage werden gelöscht; Aufraeumen nur Montags
# 15.02.2016: .archived Dateien werden Montags geloescht;
# 22.02.2016: Aenderung der Eigentumerrechte, einmal Eigentuemer jedadmin für das Backup und dann wieder zurueckgeben an jedoxweb
# 10.10.2016: log-Aenderungen eingeführt, eigenes log für den olap Server unter Data.

# Funktionen:
sende_mail(){
echo "$2" | mailx -S smtp=server:port -s "$1" -v ...@server....de
}

# Variablen
DATUM=$(date +"%Y%m%d")
OBJECTSPFAD=/opt/jedox/Data
SOURCE="data_etl data_files data_olap"
BACKUP_DIR=${OBJECTSPFAD}/Backup
LOGFILE=${OBJECTSPFAD}/Backup/Logdateien/Backuplog_${HOSTNAME}_${DATUM}.log
WOCHENTAG=$(date +"%u")
RC=0

#check User
if [ `id -un` != "jedadmin" ]
then
echo "User ungueltig, benoetigt wird jedadmin"
sende_mail "Probleme beim Backup auf der $HOST" "User ungueltig, benoetigt wird jedadmin"
exit 1
fi

echo $(date +"%H:%M:%S")": START - Jedox stoppen ----------------------------------------" >> ${LOGFILE}
sudo /opt/jedox/ps/jedox-suite.sh stop >> ${LOGFILE}
wait $(pgrep palo)

echo "Backup ${HOSTNAME} vom $(date +"%d.%m.%Y-%H:%M")----------------------------------------" >> ${LOGFILE}

cd ${OBJECTSPFAD}
RC=$?
#Prüfen, ob Ordner da ist - wenn dann ist $? gleich 0
if [[ $RC -ge 1 ]];
then
echo "Pfad nicht gefunden. Backup nicht ausgefuehrt!" >> ${LOGFILE}
sende_mail "Probleme beim Backup auf der ${HOSTNAME}" "Bitte die Logdatei des Backups ueberpruefen: ${LOGFILE}"
#echo "Bitte die Logdatei des Backups ueberpruefen: ${LOGFILE}" | mailx -S smtp=smtprelay1.s-v.loc:25 -s "Probleme beim Backup auf der ${HOSTNAME}" -v $MAILEMPFAENGER
exit 8
fi

# Backup
echo $(date +"%H:%M:%S")": Beginn der Sicherung" >> ${LOGFILE}

#jedadmin die Eigentuemerrechte geben, damit er das Backup auch komplett ausfuehren kann
sudo chown -R jedadmin /opt/jedox/Data/data_etl/ /opt/jedox/Data/data_files/ /opt/jedox/Data/data_olap/

#gucken, ob Montag ist
if [[ ${WOCHENTAG} == 1 ]]; then
FILENAME=${BACKUP_DIR}/Backup_${HOSTNAME}_${DATUM}.${WOCHENTAG}
echo "Vollbackup: ${FILENAME}.tar" >> ${LOGFILE}

#snapshot Datei wird gelöscht
rm ${BACKUP_DIR}/usr.snar
tar -vcz --file=${FILENAME}.tar.gz --listed-incremental=${BACKUP_DIR}/usr.snar ${SOURCE} >> ${LOGFILE}

elif [[ ${WOCHENTAG} -ge 2 && ${WOCHENTAG} -le 5 ]]; then
SDATUM=$(date -d "last Monday" +"%Y%m%d")
FILENAME=${BACKUP_DIR}/Backup_${HOSTNAME}_${SDATUM}.${WOCHENTAG}
echo "inkrementelles Backup: ${FILENAME}.tar" >> ${LOGFILE}

tar -vcz --file=${FILENAME}.tar.gz --listed-incremental=${BACKUP_DIR}/usr.snar ${SOURCE} >> ${LOGFILE}
#tar -vcf ${BACKUP_DIR}/Backup_${HOSTNAME}_${DATUM}.tar ${SOURCE} >> ${LOGFILE}
fi

RC=$?
#Prüfen ob Kompression ohne Fehler
if [[ $RC -ge 1 ]];
then
rm ${FILENAME}.tar
echo $(date +"%H:%M:%S")": Tar nicht korrekt erstellt. Backup von ${HOSTNAME} wird nicht ausgefuehrt!" >> ${LOGFILE}
sende_mail "Probleme beim Backup auf der ${HOSTNAME}" "Bitte die Logdatei des Backups ueberpruefen: ${LOGFILE}"
exit 8
else
echo "$(date +"%H:%M:%S"): tar und compress erfolgreich." >> ${LOGFILE}
# echo "$(date +"%H:%M:%S"): TAR erfolgreich. Beginn Compress" >> ${LOGFILE}
# gzip ${FILENAME}.tar
# RC=$?
# #Prüfen ob Kompression ohne Fehler
# if [ $RC -ge 1 ];
# then
# rm ${FILENAME}.tar.gz
# echo "RC: $RC bei Compress " >> ${LOGFILE}
# echo $(date +"%H:%M:%S")": Compress nicht erfolgreich. Backup ueberpruefen!" >> ${LOGFILE}
# sende_mail "Probleme beim Backup auf der ${HOSTNAME}" "Bitte die Logdatei des Backups ueberpruefen: ${LOGFILE}"
#
# else
echo $(date +"%H:%M:%S")": Backup von ${HOSTNAME} wurde korrekt ausgefuehrt!" >> ${LOGFILE}
#fi
fi

# zum unterbrechen
# read -p "Press [Enter] key to delet files..."

# Nachträgliche Aufräumarbeiten; immer Montags
if [[ ${WOCHENTAG} == 1 ]]; then
echo $(date +"%H:%M:%S") "Aufraeumen - folgende Dateien werden geloescht:" >> ${LOGFILE}
#Logfiles, älter 90 Tage löschen
find /opt/jedox/Data/Backup/Logdateien/ -type f -mtime +91 -exec ls {} \; >> ${LOGFILE}
find /opt/jedox/Data/Backup/Logdateien/ -type f -mtime +91 -delete 2>> ${LOGFILE}
#Sicherungsdateien, älter 14 Tage löschen
find /opt/jedox/Data/Backup/Backup_lxkad* -type f -mtime +14 -exec ls {} \; >> ${LOGFILE}
find /opt/jedox/Data/Backup/Backup_lxkad* -type f -mtime +14 -delete 2>> ${LOGFILE}
#.archived-Dateien löschen
find /opt/jedox/Data/ -name '*.archived' -type f -exec ls {} \; >> ${LOGFILE}
find /opt/jedox/Data/ -name '*.archived' -type f -delete 2>> ${LOGFILE}
fi

# zum unterbrechen
# read -p "Press [Enter] key to start Jedox..."

#jedoxweb die Eigentuemerrechte zurueckgeben,
sudo chown -R jedoxweb /opt/jedox/Data/data_etl/ /opt/jedox/Data/data_files/ /opt/jedox/Data/data_olap/

echo $(date +"%H:%M:%S")": Jedox starten ----------------------------------------" >> ${LOGFILE}
#sudo /opt/jedox/ps/jedox-suite.sh start >> ${LOGFILE}
sudo /opt/jedox/ps/jedox-suite.sh start >> /opt/jedox/Data/log/olap_server.log
# eine Schleife, die 300 Sekunden lang prüft, ob die Dienste gestartet wurden
z=(0);
while [[ $z -lt 300 ]];
do
# Abfrage, ob die Jedox Dienste gestartet wurden
if pgrep "palo" && pgrep "core.bin" && pgrep "java" && pgrep -U jedoxweb "httpd";
then
echo $(date +"%H:%M:%S") "Alle Prozesse laufen - Jedox ordnungsgemaess gestartet!" >> ${LOGFILE}
break;
fi
sleep 30; z=`expr $z + 30`;
done;

# Prüfung ob alle Dienste gestartet sind, falls nicht eine Benachrichtigung...
if ! pgrep "palo" || ! pgrep "core.bin" || ! pgrep "java" || ! pgrep -U jedoxweb "httpd";
then sende_mail "Probleme beim Backup auf der ${HOSTNAME}" "Jedox wurde nicht ordentlich gestartet. Bitte pruefen."
fi

echo $(date +"%H:%M:%S") "Backup ENDE!" >> ${LOGFILE}

exit $RC

Sonntag, 17. August 2014
von gedankenpolier
Keine Kommentare

Finderlohn? Wozu? Unnötig!

Alles nun, was ihr wollt, daß euch die Leute tun sollen, das tut ihr ihnen auch.
Das ist das Gesetz und die Propheten.
(Matthaeus 7:12)

Aus aktuellem Anlass stellte ich mir mal die Frage, wieso es überhaupt einen Finderlohn gibt. Nach § 971 BGB beträgt dieser zwischen drei und fünf Prozent des Fundwertes. Aber was erreicht der Gesetzgeber damit beziehungsweise welche Anreize löst er dadurch aus.

Meiner Ansicht nach, kann der Finderlohn nicht zum Ziel haben, dass ein Finder (allein) deshalb die gefundene Sache abgibt. So würden monetär kalkulierende Menschen eher den Gegenstand behalten oder weiterverkaufen. Dadurch könnten sie tendenziell einen höheren Ertrag/Nutzen erzielen, als durch die maximal fünf Prozent Finderlohn (eine Fundunterschlagung ist selten nachweisbar, so dass mithin eine Rechtsverfolgung unwahrscheinlich respektive die Kosten daraus gering sind). Nicht allein monetär kalkulierende Menschen die keine offensichtlich verlorenen Sachen ihr eigen nennen wollen, werden ebenfalls nicht vom Finderlohn beeinflusst. Unabhängig davon, ob das Behalten der Fundsache legal oder illegal ist, werden sie wegen ihrer Grundsätze oder aus Empathie mit dem Verlierer versuchen, die Fundsache dem Eigentümer zu übergeben. Folglich ist nicht davon auszugehen, dass durch den Finderlohn mehr Fundsachen zu ihren rechtmäßigen Eigentümern gelangen.

Natürlich könnte man anmerken, dass der Finderlohn als Ersatz für etwaige Kosten (u. a. Porto) des Finders bei der Rückgabe zu interpretieren ist. Jedoch ist es einerseits selbstverständlich, dass der Verlierer die Kosten des Finders übernimmt. Andererseits sind die Aufwendungen des Finders weitestgehend unabhängig von dem Wert der Fundsache.

Also warum regelt der Staat den „Lohn“ eines Finders? Da sowohl das Anreiz- als auch das Aufwandsargument nicht überzeugen, kann es sich grundsätzlich nur um eine Anerkennung für eine „tolle“ Leistung handeln – vergleichbar mit der Bezahlung von Kindern durch ihre Eltern für die Hausarbeit oder für eine gute (Zeugnis-)Note. Aber muss dies legislativ geregelt werden? Mit Nichten. Anerkennungen sind eher private Angelegenheiten und verlieren doch ein wenig ihren Zweck, falls sie zur regulierten Pflicht werden. Ein Dank, große Freude oder ein kleines Geschenk zeigen dem Finder doch mehr Anerkennung, als (pflichtgemäßes) Geld.

Samstag, 26. Juli 2014
von gedankenpolier
Keine Kommentare

Investigation of the search engine result pages changes

„Ugliness does not sell.“
Raymond Loewy, Designer

Search engine result pages (SERPs) are very important for users to get relevant information. Therefore is the Design of a SERP a strong competitive factor in the search business. Despite the view of some authors, that the search engines are not differentiated at their user interfaces, one can see that alone the SERPs and the main pages of the three well-known search engines (Google, Bing, and Yahoo) are varied.

To analyze the innovations around the SERPs I start a long-run examination in which I take a monthly look at the SERPs of these search engines. The first year is long over and so that I can present the first results.

The structures of the SERPs of these search engines are identical. In the top center of the page is the search box, hereunder are the top sponsored results and thereunder the organic results. On the right side are further sponsored results. However there is a wide difference between Google with the usual and prominent consideration of the collections (maps, products, news, and images) between the organic results on the one hand and Yahoo, Bing, which mainly present the result list, on the other hand (Bing includes sometimes a map between the organic results). In addition Google presents at the end of the SERP more direct links to the other SERPs (Google 10, Yahoo 5-10, and Bing 5). Furthermore one can see that Google present more sponsored results on the right side of the SERP (primarily from May to September 2013). That was not a strategic design decision, but rather the result of Googles larger advertising network in Germany.

In the follow I look at the SERP changes of the single search engines

Google:

At Google it was interesting to see, how his provider experimented with the integration of the different collections. For example the news collection was placed in front of the organic result list or after the first two/three top results. Furthermore one time Google presented the product collection ahead of the map in the right top corner (April 2013) or the image collection below the organic result list (February 2014). Moreover Google deleted in the September 2013 the links to the other services at the top of the page and did hide the links behind the “3 times 3 points button” near the log-in button. In addition Google changes very often his logo by the legendary doodles.

At the bottom of the SERP Google reduced the two lines with the links to additional information and help to a single line (April 2013). This line contains only three items: help, feedback and data privacy statement. In some months (e.g. October/November 2013) one can see little changes around and between the references to the further result pages (“gooooooooogle”).

Bing:

By contrast with Google the SERP changes at Bing were low. The main changes were that Bing in the October and November introduced new logos. Apart from that were the observable changes determined by the variations of the (sponsored and organic) results, like the higher positions of the map or the varying positions of similar queries.

Yahoo!:

Comparable to Google Yahoo did a wide change in the SERP design. In the November 2013 they moved completely the SERP from the center to the left side. Furthermore they deleted the top line, which included links to other offers (mail, portal) or the log-in. Therefore they introduced a new small field with links to the log-in, mail and further settings on the right side. In addition they put the links to the further collections from under the search box to the left side. The related queries recommendation moved from this position to under the result list. At the same time Yahoo! reduced the links to the other SERPs from 10 toward 5. Earlier the year 2013 Yahoo! changed in the September his logo and in the May the color of the search button (yellow toward blue) at the bottom.

Methodology:
I did a snapshot from the SERPs of the three well-known search engines (Google, Bing, and Yahoo) at the last day of a month (sometimes at the first day of the following month). For simplification do this snapshots comprise only the first and last screen (I think, that the changes which I thus does not track are low). The Browser was a default Internet Explorer 11 on a Windows 7 Professional.

Note:
To see the month of the particular picture you have to click on „show info“.
I think I will update the article every year or every half year.

Samstag, 23. November 2013
von buchstabenschubser
2 Kommentare

Essensphotos

Neugierig, freudig und hungrig wird der Supermarkt auf dem Heimweg nach der Arbeit mit suchenden Augen und kreisenden Gedanken durchstreift_ Obstauslage, Gemuesestellage, Kaesekuehlfach, Wursttheke, Fischstand, Gewuerzecke, Brotregal und Internationale-Spezialitaeten-Gang … das, dieses und jenes *schwupps* in den Korb, hin zur Kasse und ab nach Hause.

Tuer auf, Radiostream an, Schneidebrett samt Messer ´raus, Tellerchen aufgestellt und ab geht die Schnippelei. Kochbuch? Sieht geordnet mit den anderen im Regal schick und sophisticated aus. Manchmal muss es eben Freestyle (aus der Erinnerung an Jamie Oliver) sein. Wird schon. Sonst gibt es Sushi vom Lieblingsjapaner. Immer eine Reise wert – Gochiso Samadeshita. Heute aber gilt der Versuch. Vorbereitung fertig, Zubereitung starten.

´Mmmh … oishiso… legger es wird … gut es aussieht´ denkt sich der eifrige Koch-Padawan und das Wasser beginnt im Mund zusammenzufließen ob der Vorfreude und der Entzueckung ueber die Leckerei die sich der Gaumen ausmalt. Der Teller befuellt und das Besteck zur Hand … moooment … so stolz der emsige Kiekindiewelt-Koch ist, so selbstredend das koestliche Mahl ist kundzutun. Auch wenn Eigenlob stinkt – kurz mal durchlueften – gezueckt wird das Smartphone und „geshared“ wird das Essensphoto. Die „Freunde“ ueberall auf der Welt sind doch jederzeit mit Blauen Gesichtern online. Meinung ist gefragt. Obwohl nicht jeder Senf zum Gericht passt.

Und? Doofe und gemeine Kommentare und noch viel schlimmer – keine Reaktionen! Warum? Sieht man nicht die Muehsal hinter dem Gericht? Ist es nicht lobenswert selber zu kochen? Aus den Hunderten von Kochshows endlich etwas abzuschauen statt die Shows betrachtend lediglich mit „ah … mmmh … sieht lecker aus … koennte man mal…“ zu rezipieren? Bestellen kann doch jeder! Essen gehen kann doch jeder!

Der Ueberdruss gegenueber Essensphotos_ Wieso? Weshalb? Warum? Liegt es an der oftmaligen Banalitaet der Essensphotos? Der Anzahl der verbreiteten Essensphotos? Das Mitteilen des Ortes der Aufnahme der Essensphotos? Es sind wohl genau diese drei Aspekte die, bei jedem in unterschiedlich stark empfundener Auspraegung, die meisten ueber Essensphotos den Kopf schuetteln lassen. Oder schlicht Desinteresse an diesem Thema. Jeder wie er „liked“.

Aber koennen solche Essensphotos nicht als Anreiz dienen? Mal etwas Neues auszuprobieren? Etwas Abwechslung einkehren zu lassen? Gar als Hinweis auf gute oder besondere Restaurants? Ein Teilhaben am Leben der „Freunde“ die entfernt wohnen? Fuenf mal ein JA! Die letzten beiden Jas durch eigene Selbsterfahrung per Blauem Gesicht. So bloede sind die doch nicht. Und mit den Photo-Apps der Smartphones sieht sogar schlechter Fisch aesthetisch aus. Mithin transportieren die bearbeiteten Essensphotos die Stimmung des Momentes im Stadtpark, im Café, im Restaurant, am Herd, auf dem Balkon oder am See den der Photograph erlebt. Toll!

Her mit den Essensphotos! Bitte danke.

Itadakimasu.

Post Scriptum_ Apropos Sushi und Reise … ueber Einladung ins Sukiyabashi Jiro von Jiro Ono freue ich mich tierisch. Aber bitte an ein Flugticket denken. Getraenke zahle ich.

Mittwoch, 20. Februar 2013
von buchstabenschubser
Keine Kommentare

Blaue Gesichter

Blaue Gesichter_ Sie stehen an jeder Ampel. Sie schaukeln in jeder Tram. Sie sitzen in jedem Café. Sie wippen an jeder Haltestelle. Sie laufen in jeder Fußgaengerzone. Sie liegen auf jeder Wiese. Sie nicken auf jeder Party. Sie kauern in jedem Autositz.

Blaue Gesichter_ Sie verfolgen niemanden. Sie attackieren niemanden. Sie kompromittieren niemanden. Sie stoeren niemanden. Sie beschimpfen niemanden. Sie umarmen niemanden.

Blaue Gesichter_ Hier und dort. Rechts und links. Morgen und Abends. Mittags und Nachts. Ueberall und jederzeit.

Blaue Gesichter_ Sie haben sogar eine eigene Stunde. Beinahe.

Blaue Gesichter_ Tags schwer zu identifizieren selbst in unmittelbarer Naehe, des Nachts leicht zu erkennen schon aus weiter Ferne.

Blaue Gesichter_ Blau macht soll glücklich machen! Aber treffen sich zwei scheinen beide ungluecklich. Denn fuer einen kurzen Moment muessen sie aufschauen = Entfärbung. Unglueklich! Um darauf gemeinsam wieder hinunterzuschauen = Einfaerbung. Gluecklich!

Blaue Gesichter_ Sie sprechen nicht. Sie stieren nur. Sie sprechen nicht. Sie wischen nur. Sie sprechen nicht. Sie tippen nur. Sie sprechen nicht. Sie druecken nur.

Blaue Gesichter_ Ich hasse sie. Sie symbolisieren eine neue schreckliche Art der Kommunikation die sich in unserer Gesellschaft verbreitet – nonverbal und unpersoenlich. Den Kopf starr und stumpf abschottend von anderen nach unten gerichtet anstatt die Augen offen und neugierig schweifend in lebendige Welt zu richten. Aber ich habe auch eines. Himmelblau zwar, dennoch.

Blau, Blau, Blau sind alle unsere Smartphone-Gesichter. Allez, le Bleus!

Post Scriptum_ Ich bestelle mir ein neues Smartphone – Please don´t let me fade into blue!

Donnerstag, 20. Dezember 2012
von gedankenpolier
Keine Kommentare

Darf man Computerzeitschriften vertrauen?

„Dessen Brot ich eß, dessen Lied ich sing“

Volksweise

Bei allen werbefinanzierten Medien, egal ob TV, Radio, Print oder Online wird vermutet, dass sie sich eher an den Präferenzen der Anzeigenkunden als an den der Rezipienten orientieren. Es gab ja auch schon genug Beispiele, bei denen dies bewiesen wurde, sogar im öffentlich rechtlichen Rundfunk. In der Ökonomie wird dieser Sachverhalt unter der „Media Bias“- Theorie genauer untersucht. Dabei hat alles damit angefangen, dass die Verzerrung einzelner Medien zugunsten bestimmter politischer Parteien untersucht wurde. Heutzutage liegt der Fokus jedoch auf der Betrachtung der Verzerrung zugunsten der Anzeigenkunden, deren Ansichten nicht als gesponserte Informationen gekennzeichnet werden und vom Rezipienten daher als redaktionelle Inhalte und somit objektiver angesehen werden.

Ende letzten Jahres wurde eine beschreibende Studie an der TU Ilmenau durchgeführt, in der eine mögliche Verzerrung in Computerzeitschriften betrachtet wurde. Ausgewählt wurden dabei die Zeitschriften Chip und Computer Bild und das Werbeverhalten und die Nennung in redaktionellen Inhalten (Notebookbestenlisten) von Klappcomputerhersteller im Zeitraum von 2004/2008 bis 2010 analysiert.

Insgesamt kommt die Studie zu dem Schluss, dass eine solche Verzerrung zugunsten der Werbetreibenden bei den beiden Computerzeitschriften Chip und Computer Bild nicht erkennbar ist. In den folgenden Abbildungen werden die absoluten Häufigkeiten an Nennungen in den Notebookbestenlisten und Bruttowerbeaufwand von Notebookherstellern (2004-2010) in der Chip und der Computer Bild dargestellt.

Chip:

Computer Bild :

 

Es wird daraus klar, dass bei beiden Zeitschriften keine Verzerrung, im Sinne der Anzahl der Nennungen im redaktionellen Teil, zugunsten der Unternehmen mit einem hohen Werbeaufwand zu erkennen ist.

Ähnlich sieht es bei der Betrachtung der Werbeausgaben aus, die die Unternehmen bezahlten, die einen bestimmten Platz erreicht haben (Durchschnittlicher Bruttowerbeaufwand aller Notebookhersteller bei Rang x (2004-2010)):

Chip:

Computer Bild:

Auch hierbei wird deutlich, dass nicht die Unternehmen die höchsten Werbeausgaben haben, die auf den vorderen Rängen lagen, sondern, die auf den hinteren Rängen.

Es könnte somit eher ein Substitutionseffekt vorliegen, das heiß, dass die Firmen, die nicht gut abgeschnitten haben anderweitig Aufmerksamkeit erlangen müssen und deshalb Werbung in den Zeitschriften schalten.

Siehe hierzu auch die genauere Analyse der Werbeausgaben von Hewlett Packard in der Computer Bild:

Aus dieser ist erkenntlich, dass wenn die Ränge der Klappcomputer schlechter beziehungsweise gar nicht platziert wurden, die Werbeausgaben zunahmen (ab Heft 25. 2010, 14.2010, 10.2009)

Oder hier für Bemi in der Chip:

Auch hier wird ersichtlich, nachdem die Laptops von Bemi nicht mehr in den Notebookbestenlisten vorkamen, die Werbeausgaben des Unternehmens anstiegen.

 

Quelle der Daten und Bilder: Franziska Winkler (2012) Werbeinduzierter Media Bias bei deutschsprachigen Computerzeitschriften? Bachelor-Arbeit am Fachgebiet Wirtschaftspolitik der TU Ilmenau.

Freitag, 28. September 2012
von gedankenpolier
Keine Kommentare

Suchmaschinen und Organspende – ist weniger Transparenz besser?

„Lieber Geld verlieren als Vertrauen.“
Robert Bosch (1861-1942)

Die in den letzten Wochen und Monaten bekanntgewordenen „Organspendeskandale“ zeigten, wie ein Arzt das an sich für objektiv gehaltene System der Organvergabe beeinflussen konnte. Er hatte für seine Patienten, gegen oder ohne Bezahlung ist egal, die Analysedaten (Blutuntersuchungen…) gefälscht und konnte diese somit bei der Organspende priorisieren. Dies ist natürlich nur möglich, wenn der Arzt weiß, nach welchen Kriterien die Organisation „Eurotransplant“ die Organe vergibt und welchen Einfluss die einzelnen Kriterien haben. Einige Informationen sind über die Seite von Eurotransplant verfügbar, jedoch nur in sehr komprimierter Form. Jedoch dürfte ein erfahrener Arzt  (Chefarzt) durch die Berufspraxis  weitere Informationen besitzen, welche Kriterien für die Vergabe relevant sind.

Wenn er diese Informationen nicht hätte, dann könnte er die Daten auch nicht manipulieren. Somit wäre es für die organvergebene Organisation besser, wenn sie überhaupt keine Aussage über die Kriterien macht. Klar, das wäre schwer in die Öffentlichkeit zu kommunizieren, da solche Organisationen ja immer Transparent sein sollen, sonst kommen auch gleich Verschwörungstheorien auf. Für jeden ist unverkennbar, dass an sich derjenige das Organ bekommen soll, der es am dringlichsten braucht und zudem noch den größten Nutzen davon erwartet. Das eine kann an der Schädigung des Organs und das andere ganz gut am Alter und an den Lebensgewohnheiten des Patienten ermittelt werden. Aber allein bei diesen Kriterien gibt es einen Spielraum, der vom Arzt oder jeder anderen Person (auch Mitarbeiter der Organisation sind nicht vor Bestechungen gefeilt) beeinflusst werden kann: raucht der Patient, treibt er Sport (gut) aber Extremsportarten (schlecht)…

Keine Transparenz hilft auch nicht sonderlich weiter, da für die meisten Ärzte diese oder ähnliche  Kriterien nach reichlichem Überlegen klar sein dürften. Hier könnte die Organisation neben der Transparenz auf einen Trick zurückgreifen – der Zufall (Würfel) sollte mit eine Rolle spielen und somit kann kein Mensch das System beeinflussen. Dadurch hat auch kein informierter Patient mehr einen Anreiz, für eine mögliche Organspende zu bezahlen, da der Arzt seine Position auf der Liste nicht wesentlich verbessern kann.

Der Zufall ist bei dieser Sache jedoch noch weniger kommunizierbar. Dessen ungeachtet wäre diese Lotterie im Endeffekt für viele Betroffene  vielleicht eher hinnehmbar, als wenn in regelmäßigen Abständen bekannt werden  würde, dass sich andere Empfänger zum Teil ihren Platz auf der Liste erkauft haben. (Dann sollte man vielleicht doch eher einen Markt um die Organe einführen, so dass jeder die gleichen Chancen hat).

Mit Suchmaschinen hat das Ganze so viel zu tun, dass das Schicksal der Webseitenbetreiber (Onlineshops…) von der Ergebnisliste abhängt und diese versuchen, auf der Liste weit nach oben zu gelangen. Die Nutzer und auch der Großteil der Webseitenbesitzer  vertrauen jedoch darauf, dass die Ergebnisse, die ganz oben auf eine Suchanfrage angezeigt werden, auch die relevantesten sind. Wenn  Kriterien über das Rankingverfahren einer Suchmaschine bekannt werden, dann gibt es jedoch Webseitenbetreiber, die versuchen, das Ranking künstlich zu beeinflussen – Ankauf von Links, Nutzung von versteckten Wörtern…. Hierbei hat sich in den letzten Jahren unter der Suchmaschinenoptimierung eine Industrie herausgearbeitet, die sich auf die Anpassung der Webseiten an die Suchmaschinen konzentriert, zum Teil mit verbotenen Verfahren. Die Suchmaschinen werden dadurch immer geheimnisvoller, was ihre Verfahren angeht, um sich vor den Optimierungsverfahren zu schützen. Zwar können sich die Suchmaschinen damit nicht vollständig schützen, da die Suchmaschinenoptimierer versuchen, durch „Reverse Engineering“ den Rankingalgorithmus zu bestimmen. Aber dagegen kann man sich nur schwierig währen.

Das Geheimnis um den Algorithmus führt jedoch zu Anschuldigungen und Verschwörungstheorien um Google herum, so dass oft die Veröffentlichung des Rankingverfahrens verlangt wird. Jedoch ist mir kein besseres Verfahren bekannt, sich vor künstlichen Einflüssen zu schützen. Genauso wie beim Organspendeverfahren ist hier ein absolutes Geheimnis unabdingbar. Niemand sollte über die Methoden Bescheid wissen. Und innerhalb der Organisationen/Suchmaschinen auch sehr wenige. Man sieht ja an den Schweizer Banken, wie weit die Loyalität reicht.

Mittwoch, 13. Juni 2012
von gedankenpolier
Keine Kommentare

Filehoster und ihre Preise – für jeden etwas?

„Menschenkenner haben immer gewusst,

dass man den Leuten eine teure Sache leichter verkaufen kann als eine billige.“
W. Somerset Maugham

Filehoster sind in den letzten Jahren im Internet aus dem Boden geschossen, wie Pilze im Spätsommer. Diese stellen quasi eine Onlinefestplatte dar, auf denen die Nutzer ihre Daten speichern können, um später selber darauf zuzugreifen. Zum Teil ist es auch möglich, dass andere Nutzer auf die Daten  zugreifen können, wenn sie einen Verweis auf die Daten haben. Diese Angebote werden natürlich auch für den Austausch von urheberrechtlich geschützten Inhalten benutzt, wie das Beispiel Megaupload zeigte. Ökonomisch sind diese Anbieter interessant, weil sie zum Teil sehr schön die verschiedenen Formen der Preisdifferenzierung darstellen.

Zwar gibt es Anbieter wie filestore oder zippyshare, die sich gar keine Gedanken über Preise machen, denn sie bleiben komplett für alle kostenlos. Das bedeutet vor allem, dass sie keine Sonderleistungen für zahlende Kunden anbieten. Bei den in der Tabelle dargestellten Anbietern werden hingegen  Premiumkonten angeboten, die erweiterte Funktionen anbieten, wie unbegrenzt Vorhaltezeit, Geschwindigkeit und  Downloadvolumen oder die Möglichkeit direkter, paralleler und wiederaufnehmbarer Downloads sowie keiner Werbung.

Sie vollziehen somit eine erste Preisdifferenzierung in dem sie zwischen zahlenden und nicht zahlenden Kunden unterscheiden. Zahlenden Kunden wird ein Zusatznutzen angeboten. Sprich die Nutzer, die das Angebot intensiver nutzen und den vollen Funktionsumfang haben möchten und dafür eine höhere Zahlungsbereitschaft besitzen, als die übrigen, bezahlen eine Gebühr. Das bedeutet nicht, dass die Premiumfunktionen auch mehr Kosten verursachen und somit einen höheren Preis rechtfertigen. Nein vielmehr werden auch „Schikanen“ eingebaut, damit Leute mit einer hohen Zahlungsbereitschaft nicht auf die Idee kommen, auf ihr Premiumkonto zu verzichten. Dazu zählen zum Beispiel die feste geringe Datenübertragung (Klar das Premiumnutzer bevorzugt werden. Wenn aber keine weiteren Daten übertragen werden könnte aber die Geschwindigkeit für die Nichtzahler höher sein.), die Wartezeit vorm Download oder auch die Einschränkung auf einen Download in einem bestimmten Zeitraum.

Hierbei wird auch von einer qualitativen Preisdifferenzierung gesprochen, da der Preisunterschied auf den verschiedenen Qualitäten beruht. Es handelt sich zudem um eine Preisdifferenzierung zweiten Grades, da die Anbieter die Präferenzen der Nutzer nicht wissen (wenn sie sie wüssten, dann wäre eine Preisdifferenzierung ersten Grades möglich und die gesamte Konsumentenrente könnte abgeschöpft werden). Vielmehr bieten sie ihren Kunden ein Menü aus Verträgen an, aus denen diese selber entscheiden können, welchen Vertrag sie abschließen. Dies wird besonders deutlich, wenn man sich die Preisdifferenzierung innerhalb der Premiumkonten anschaut.

So werden von den Anbietern bis zu sechs verschiedene Premiumverträge angeboten, die lediglich auf unterschiedlichen Laufzeiten beruhen (quantitative Preisdifferenzierung). Verträge über wenige Tage bieten die Möglichkeit zum Ausprobieren oder sind für Nutzer, die den Dienst nur für kurze Zeit benötigen. Der Preis ist dafür pro Tag gerechnet sehr hoch und liegt bei 1,66-4,99 pro Tag. Die nächste Kategorie sind Verträge über mehrere Monate bis zu einem halben Jahr, wobei hier schon ein hoher Tagespreisrabatt gegeben wird. Der Nutzer  muss pro Tag nur noch rund 0,17-0,33 Euro bezahlen und für Nutzer, die  langfristig die Dienste nutzen wollen, bezahlen 0,14-0,19 Euro pro Tag, müssen aber mindestens ein Jahr dabei bleiben.

Es wird deutlich, dass der größte Preissprung zwischen der kurzen und mittleren Laufzeit besteht. Also zwischen Gelegenheitsnutzern und Intensivnutzern. Anschließend fällt auf, dass die Anzahl der Stufen variiert. So bietet beispielhaft Rapidshare nur drei Verträge an und Upload.de oder Freakshare sechs Verträge. Interessant wäre zu wissen, wie die Verteilung der ausgewählten Verträge ist und ob die Nutzer auch hier die goldene Mitte bevorzugen. Ferner wird deutlich, dass sich die Preise der Anbieter auf den unterschiedlichen Stufen zum Teil gleichen und man keinen Preisführer über alle Stufen ausmachen kann.

Es ist jedoch nicht nachvollziehbar, warum die Anbieter ihre Preise nicht stärker nach der Qualität differenzieren. Sprich höhere Preise für die Nutzer verlangen, die ein höheres Datenvolumen speichern möchten, oder die viele Daten hoch- und herunterladen möchten. Außer zwischen der Premium- und der Kostenlosenversion wird dies nicht betrachtet, sondern lediglich die Dauer der Speicherung berücksichtigt.

Tage 1 2 3 30 36 60 90 130 150 180 360 720 ewig
Rapidshare Paketpreis 9,90 29,90 99,90
Preis/Tag 0,33 0,20 0,14
Upload.de 4,99 9,99 24,99 39,99 69,99 249,99
2,50 0,33 0,28 0,22 0,19
share-online.biz 4,49 8,49 10,00 17,99 25,00
1,80 0,28 0,28 0,20 0,19
netload.in 4,99 9,50 24,99 39,99 64,99 99,90
2,50 0,32 0,28 0,22 0,18 0,14
datei.to 4,99 7,99 19,99 29,99 59,99
1,66 0,27 0,22 0,17 0,17
depositfiles.com 8,95 14,95 32,95 54,95
0,30 0,25 0,18 0,15
www.wupload.de 9,00 25,00 35,00 55,00
0,30 0,28 0,19 0,15
freakshare.com 4,99 9,99 24,99 39,99 64,99 99,99
4,99 0,33 0,28 0,22 0,18 0,14
www.crocko.com
(in $)
11,95 29,95 44,95 58,95
0,40 0,33 0,25 0,16

Donnerstag, 15. März 2012
von gedankenpolier
Keine Kommentare

Alte Wolkenrechnerei bleibt Topthema auf der Neuheiten Messe Cebit

„Und über uns im schönen Sommerhimmel
War eine Wolke, die ich lange sah
Sie war sehr weiß und ungeheuer oben
Und als ich aufsah, war sie nimmer da.“
Bertolt Brecht

Die Stände sind abgebaut, die Aussteller wieder zu Hause und die Messehallen in Hannover gereinigt. Obwohl das Thema dieses Jahr die „IT-Sicherheit“ war, haben die meisten Aussteller auf der Cebit, wie in den letzten Jahren auch, ihre Neuheiten zu dem sogenannten Cloud Computing präsentiert. Fast für jede spezielle Zielgruppe werden Dienste angeboten, die nicht mehr auf stationären Rechnern laufen, sondern in Rechenzentren. So gibt es Angebote, bei denen Privatanwender ihre Musik, Unternehmen ihre Kundenbeziehungen oder Stadtverwaltungen ihre Akten über die Cloud organisieren können.

So langsam denke ich, dass sich diese Angebote durchsetzen. Zumindest scheint es in der Computerwelt zurzeit nichts anderes zu geben, das die Nutzer überzeugt. Klar sind ja auch die Vorteile überzeugend. Mit einem einfachen internetfähigen Gerät auf komplexe Programme oder große Datenbestände zuzugreifen klingt vielversprechend. Ortsungebundenheit des Zugriffs, Skalierbarkeit der Infrastruktur, regelmäßige Backups und Wartung sowie andere für Datenverluste und Ausfälle verantwortlich zu machen, lassen die Herzen der Controller in Unternehmen höher schlagen.

Klar bringen Wolken auch oft Blitze mit und so liegen für mich auch die Nachteile auf der Hand und klingen im Ohr, da schon einmal da gewesen. Die ganzen möglichen Einsparungen können dadurch wettgemacht, wenn ein Unternehmen einen Tag lang nicht mehr auf seine Daten oder Programme zugreifen kann und die Mitarbeiter tatenlos zum Rumsitzen gezwungen sind. Wie schnell dies gewollt  passieren kann, konnte gut am Beispiel Amazon und Wikileaks im Jahr 2010 gesehen werden. Auch mögliche Versuche an sensible Daten zu kommen, sollte viele Unternehmen, besonders in einem umkämpften Markt, zurückschrecken lassen, ihre Kundenlisten oder technischen Zeichnungen auf Server außerhalb ihrer Verfügungsgewalt zu speichern. Diese „Angriffe“ haben in den letzten Jahren ja auch gefühlt zugenommen.

Wolken über Stuttgart

Als Ottonormalverbraucher überwiegen für mich immer noch mehr die möglichen Nachteile den Vorteilen und so kann ich auf den ersten Blick nicht verstehen, weshalb Unternehmen sich von externen Anbietern  abhängig machen. Liegt es daran, dass sie schon immer von ähnlichen Anbietern abhängig waren. Haben sie sich zum Beispiel einmal für IBM, SAP oder Datev entschieden, ist es nur noch schwer möglich, andere Systeme einzusetzen und Daten zu übertragen. Außerdem ist es auch bei solchen Systemen kaum nachvollziehbar, wo und wie die Daten gespeichert werden. Sprich, man muss das gleiche Vertrauen diesen Anbietern gegenüberbringen, wie den jetzigen Cloudanbietern. Ferner kommen die Cloudangebote nicht so abrupt auf den Markt, wie teilweise in den Medien dargestellt. Datev ist an sich schon immer ein Cloudanbieter gewesen. Und die Angebote von SAP und Co. sind ja an sich auch schon immer Cloudähnlich. Funktionen können nach Gutdünken hinzugefügt und entfernt werden. Die einzige Veränderung liegt nur darin, dass die Unternehmen keinen eigenen Server mehr benötigen.

Aber ob sich Privatkunden auf Cloudangebote einlassen? Ich glaube nicht. Erst einmal sind mir auf der Cebit kaum Angebote für diese aufgefallen. Ferner wäre dieser Schritt für den Großteil der Leute ein großer. Im Vergleich zu den Unternehmen sind sie es nämlich nicht gewohnt die Daten aus der Hand zu geben. Außerdem denke ich, dass Cloudangebote für den Privatkunden für die Anbieter nicht lukrativ genug wären, da ein Großteil der einzelnen Funktionen kostenlos zu haben sind und die Nutzer auf diese ausweichen. Klar werden Leute auszugsweise ihre Fotos auf Facebook oder ihre Musik auf Cloudangeboten hochladen. Aber jeder wird weiterhin seine Daten auf der lokalen Festplatte speichern, besonders da diese ja günstig sind und bleiben.

Hintergrundmusik: Incubus – Under my umbrella

Mittwoch, 25. Januar 2012
von gedankenpolier
1 Kommentar

Gerechter Lohn – Signale statt Gesetze!

„Es gibt keine Handlung, für die niemand verantwortlich wäre.“
Otto Eduard Leopold von Bismarck-Schönhausen

Es gibt Reiche, es gibt Arme. Einige Leute verdienen viel Geld, viele wenig. Obwohl es standpunktabhängig ist, was für einen viel oder wenig bedeutet. Unstrittig ist es dessen ungeachtet in unserer Gesellschaft, dass ein jeder so viele Mittel zur Verfügung haben sollte, um ein adäquates Leben zu führen. Wie hoch dieser Lohn sein sollte, wird alle paar Jahre bei der Festlegung des Arbeitslosengeldes II (Hartz IV) diskutiert – sollen zum Beispiel Beträge für Drogen [Alkohol, Zigaretten] oder ähnliches berücksichtigt werden. Darum soll es hier aber nicht gehen. Auch nicht darum, dass sich Arbeit lohnen sollte. Schon komisch, dass sich lediglich die FDP dieses Credo auf die Fahne geschrieben hat und damit, in letzter Zeit weniger, Politik macht.

Damit sich Arbeit wieder lohnt (was natürlich auch wieder vom Standpunkt abhängig ist), gibt es eigentlich zwei Wege: höhere Löhne bei gleichbleibendem Nichtarbeitsgeld oder geringeres Nichtarbeitsgeld bei gleichbleibenden Löhnen. Konsens scheint es in der letzten Zeit zu sein, zumindest unter den Gewerkschaften und ihrer nahen Parteien sowie neuerdings auch der CDU, dass die Löhne im unteren Bereich durch Mindestlöhne angehoben werden sollen. Über die Vor- und Nachteile des Mindestlohns wurde schon viel geschrieben (Anstieg der Arbeitslosigkeit, Zunahme der Schwarzarbeit…). Die Frage die ich mir jedoch stelle ist: Wenn es Wille des überwiegenden Teils der deutschen Gesellschaft ist, dass die Löhne (in einigen Branchen) zu niedrig sind, warum kann man nicht andere Mittel einsetzen? Falls der Mindestlohn nicht dem Volkswillen entspricht, dann sollte auch die Regierung die Finger davon lassen.

Bisher sind ja die Buhmänner die Unternehmer. Diese bezahlen ihren Angestellten zu wenig, um mehr Profit zu haben. Mag sein, geht aber an der Tatsache vorbei, dass sie das Geld für ihre Gewinne von den Kunden bekommen. Keine Kunden. Kein Geld. Keine Umsätze. Also liegt es in der Hand der Konsumenten. Wenn sie höhere Löhne verlangen oder besser gesagt, wenn sie die Löhne als zu niedrig empfinden, dann sollte sie auch dementsprechend handeln. Daher sollten doch die Kunden nur zu den Unternehmen ihr Geld geben, die sich an ihren moralischen Standard orientieren, sprich „gerechte“ Löhne bezahlen und somit möglicherweise auch bereit sein höhere Preise zu bezahlen. Gut mag man jetzt denken. Der Unternehmer kann mir viel erzählen und ich kann doch nicht jeden einzelnen Mitarbeiter befragen was er verdient, dies wäre doch viel zu aufwendig. Klar keine Frage. Aber woher wissen wir, ob das Essen im Restaurant gut schmeckt, das Hotel komfortabel ist oder der Einkauf beim Onlinehändler sicher ist – dort liegen auch Informationsasymmetrien vor. Ganz einfach. Sie machen Werbung mit ihren Signalen – Michelin Stern, Hotelsterne oder Plaketten für das sichere Einkaufen….

Dahinter stehen private Organisationen, die die jeweiligen Unternehmen prüfen (Screening): sie testen regelmäßig das Essen, das Hotel oder schauen sich an, was Onlineläden mit den Daten der Kunden machen. Erfüllen die geprüften Firmen die Kriterien, dann wird ihnen das Signal ausgestellt und sie können damit werben. Sehen Kunden das Signal, dann steigt die Wahrscheinlichkeit eines Kaufes beziehungsweise sind sie bereit, höhere Preise zu bezahlen.

Das gleiche könnte man doch auch für Löhne einführen. Die Gewerkschaften würden einfach einen Mindestlohn für die jeweiligen Branchen festlegen. Die Unternehmen, die allen ihren Mitarbeitern einen höheren als diesen Lohn bezahlen, können sich dies durch Zertifizierer bescheinigen lassen und in ihrem öffentlichen Auftritt als Signal verwenden. Nachfrager sehen dann auf einem Blick, ob ein Betrieb (Hotel, Gaststätte, Friseur…) den von der Gewerkschaft vorgeschlagenen Mindestlohn einhält und dann bei diesem einkaufen anstatt bei einem anderem Betrieb.

Wettbewerb unter den Zertifizierern würde dann dazu führen, dass diese besser werden und auch undurchsichtige Beteiligungen sowie ausgelagerte Tätigkeiten mit berücksichtigen, so dass dort keine Schlupflöcher bestehen sollten, die durch Gesetze entstehen könnten. Somit würden schwarze Schafe vermieden.

Weitere Vorteile liegen auch auf der Hand. Wir würden die Zuständigkeit für die Löhne weiterhin bei den Gewerkschaften belassen, der Staat sollte sich daraus halten – Tarifautonomie! Man würde ferner bei den Konsumenten ein Bewusstsein für die Bedeutung ihres Handelns schaffen. Sie könne schließlich darüber entscheiden, ob sie bei einem Unternehmen kaufen, welche die Mindestlöhne einhält oder nicht – hoffen wir mal nicht, dass es ihnen egal ist. Somit kann die Gesellschaft direkt darüber entscheiden und Verantwortung dafür tragen, ob sie ihresgleichen höhere Löhne gönnt oder  nicht.

Weiterer Vorteil liegt darin, dass die Arbeitnehmer, die bereit sind für einen Lohn unter den Mindestlohn zu arbeiten, weiterhin arbeiten dürfen, so lange es Unternehmen gibt, die solche Stellen noch besetzen können. Vorteil deshalb, da der Arbeitnehmer selbst entscheiden kann, ob er für einen Lohn arbeitet – diese Freiheit ist für einige mehr wert als ein vom Staat angeordneter Mindestlohn.

Es gibt keine Gründe, die gegen diese freiheitliche Lösung sprechen. Wenn den Leuten gerechte Löhne für ihre Nächsten genauso wichtig sind, wie ihre Unterkunft im Hotel oder Essen im Restaurant, sollte alles funktionieren. Wir würden dadurch die gleichen, wenn nicht sogar gerechtere Ergebnisse erreichen als per Gesetz. Wenn nicht? Dann wäre die Forderung eines Mindestlohns nur eine Farce.

Hintergrundmusik: Völker hört die Signale!