Howto: Mavericks ISO Install Image

In order to be able to install Mavericks as a VMwareFusion 6 virtual machine i needed to built an ISO Install image of Mavericks.

I found this set of commands at http://forums.appleinsider.com/t/159955/howto-create-bootable-mavericks-iso which worked very well:

# Mount the installer image
hdiutil attach /Applications/Install\ OS\ X\ Mavericks.app/Contents/SharedSupport/InstallESD.dmg -noverify -nobrowse -mountpoint /Volumes/install_app
# Convert the boot image to a sparse bundle
hdiutil convert /Volumes/install_app/BaseSystem.dmg -format UDSP -o /tmp/Mavericks
# Increase the sparse bundle capacity to accommodate the packages
hdiutil resize -size 8g /tmp/Mavericks.sparseimage
# Mount the sparse bundle for package addition
hdiutil attach /tmp/Mavericks.sparseimage -noverify -nobrowse -mountpoint /Volumes/install_build
# Remove Package link and replace with actual files
rm /Volumes/install_build/System/Installation/Packages
cp -rp /Volumes/install_app/Packages /Volumes/install_build/System/Installation/
# Unmount the installer image
hdiutil detach /Volumes/install_app
# Unmount the sparse bundle
hdiutil detach /Volumes/install_build
# Resize the partition in the sparse bundle to remove any free space
hdiutil resize -size `hdiutil resize -limits /tmp/Mavericks.sparseimage | tail -n 1 | awk '{ print $1 }'`b /tmp/Mavericks.sparseimage
# Convert the sparse bundle to ISO/CD master
hdiutil convert /tmp/Mavericks.sparseimage -format UDTO -o /tmp/Mavericks
# Remove the sparse bundle
rm /tmp/Mavericks.sparseimage
# Rename the ISO and move it to the desktop
mv /tmp/Mavericks.cdr ~/Desktop/Mavericks.iso

“To organise the worlds information about you, and make it accessible to Google”

As most of you i’ve watched the Google I/O  Keynote on tuesday. Because i was participating in a test of a live blogging software I did a fair amount of live tweeting.

Since i had to rush after 2 1/2 hours to be only one hour late to a dinner invitation,  summarised the keynote with a tweet saying:

My summary of the first 2 1/2 hours of the #io13 keynote: meh meets spooky, and forget about interoperable standards, do it the google way
@gkamp
gkamp

But this was only one part of the summary. The other deserves some more time and space than a tweet. Hence this post.

It was the modified version of Google’s mission statement that formed itself in the back of my head:

“To organise the worlds information about you and make it accessible to Google”

This is what the “sppoky” part of my tweet relates too.

For the first time did Google show off how the different  initiatives (especially in the machine learning domain) come together in order to accrue as much information about a user as possible by providing useful services to him and track his activities.

As usual, there are two sides of a coin: In order to be able to provide Services like Google Now, or auto-awesome you need that vast amount of information and you need the progress in machine learning, NLP, … all that AI capabilities that Google has developed (standing on the shoulders of the AI research community as well as contributing heavily to it). For anybody interested in this topic i recommend to visit http://research.google.com.   And subscribe to The Google Research Blog and the Recent Google Publications Feed (if you somehow can find the URLs for the feed, one sympton of what i meant by less and less using interoperable standards).

What also has changed from back in the days when i did AI research, is the way the services are realized (in the cloud vs. local ressources) and paid for (personal data and advertising vs. license fees). This heavily contributes to my attitude to not using services like Google Now etc.

I’d rather be able to pay real money  in exchange to get a reasonable guarantee that my privacy is not invaded for potentially massively privacy invading services like Google Now and Auto-Awesome.

In this i’m a typical german  after all :-)

What’s next

Reading the (currently) most recent Google Research Blog Post it becomes clear, that Google is not going to rest on it’s laurels:

:

We’ve already developed some quantum machine learning algorithms. One produces very compact, efficient recognizers — very useful when you’re short on power, as on a mobile device. Another can handle highly polluted training data, where a high percentage of the examples are mislabeled, as they often are in the real world. And we’ve learned some useful principles: e.g., you get the best results not with pure quantum computing, but by mixing quantum and classical computing.

Can we move these ideas from theory to practice, building real solutions on quantum hardware? Answering this question is what the Quantum Artificial Intelligence Lab is for. We hope it helps researchers construct more efficient and more accurate models for everything from speech recognition, to web search, to protein folding. We actually think quantum machine learning may provide the most creative problem-solving process under the known laws of physics.

Elsewhere

As usual, i’m not the only one to get that feeling, and by far not the smartest. Without further ado, Mashables and Ben Thompsons take on it:

Mashable:

Now, however, Google’s worldview is finally coming into focus. The tenuous threads that connect these dozens of different applications and services are strengthening and gradually being pulled closer together. Underneath it all is Google’s vast web of information and smarts, which is all about us.

What Google is about to do with all of it is either a thrilling or very scary prospect.

Ben Thompson: (his remarks on Henry McCracken quoted nearly in full, but go read it and subscribe to Ben’S blog)

I don’t know much about itches, but I believe the conventional wisdom is wrong: from Google’s perspective, Google+ is not a social network meant to compete with Facebook. Rather, it’s an identity system that follows you everywhere.

Think about it: what is more valuable? Inane chatter, memes, and baby photos, or every single activity you do online (and increasingly offline)? Google+ is about unifying all of Google’s services under a single log-in which can be tracked across the Internet on every site that serves Google ads, uses Google sign-in, or utilizes Google analytics.

Every feature of Google+ – or of YouTube, or Maps, or GMail, or any other service – is a flytrap meant to ensure you are logged in and being logged by Google at all times.

Google’s mission is ostensibly “To organize the world’s information and make it universally accessible and useful.”

That was once true, but a better formulation today is: “To organize user information and make it universally trackable and marketable.”

 

 

 

 

Warum ich mich nicht als Nutzer von zeit.de, sueddeutsche.de und spon.de fühle

In der re:publica 13 Session “Digital by default – „Digital Natives der Herzen” im Journalismus” (Video) wurde am Ende der Anmoderation folgende Frage gestellt (im Video ca. 1:10):

“Wer der Anwesenden nutzt weder – in seinem täglichen Leben – zeit.de, sueddeutsche.de oder Spiegel Online?”

In einem Saal mit ca . 1000 Menschen war ich der einzige, der die Hand hob. (Gratulation an Jochen Wegner, der mich trotz Bühnenscheinwerfer erkannte. Deine Augen hätte ich gerne).

Wer mich kennt, weiss, das ich was meine Mediennutzung angeht, eher digital native als ewiggestriger  bin. Warum also habe ich, im übrigen nach kurzem Zögern, meine Hand gehoben?

  • Ich hasse rhetorische Fragen. Wenn sie dann auch noch an das Publikum gestellt werden und vorher Kuschelkurs angesagt wird, dann muss man mir nur einen kleinen Grund geben.
  • In der prädikatenlogischen Interpretation der Frage musste ich die Hand heben. Denn es gibt Tage an denen ich weder auf zeit.de, sueddeutsche.de noch spon.de bin. Zum Beispiel Tage an denen ich überhaupt nicht im Internet bin (ja die gibt es).
  • Klar weiss ich spätestens seit meiner NLP-Vorlesung Ende der 80er, dass “im täglichen Leben” ein unscharfer Quantor ist und wohl eher als “tauche ich als Unique Visitor in den Wochenstatistiken bei zeit.de, sueddeutsche.de oder spon.de  auf” gemeint ist. Ich sagte ja: Ein kleiner Grund reicht.
  • Ausserdem lese ich zur Zeit Unmengen an dpa. Und zwar “unverwurstet” wie Stefan Ploechinger sagen würde. Das liegt daran das ich im Rahmen meiner Arbeit als Leiter des dpa-newslab für die Realisierung der sog. “Chefredakteursapp” der dpa verantwortlich bin. In diese fliessen der komplette Basisdienst, alle Landesdienste sowie die dpa-news Portalinhalte ein. Also der überwiegende Teil der täglichen dpa-Produktion. Um die App zu debuggen, aber auch um zu analysieren wie man die Formate (und Inhalte) der dpa syntaktisch und semantisch so anreichern kann , dass sie noch leichter “verwurstet” werden können, lese ich zur Zeit jede Menge Meldungen, Zusammenfassungen, Korrespondentenberichte, Interviews, … und Themenpakete der dpa.

Der eigentliche Grund

Nach einigem Nachdenken bin ich mir mittlerweile sicher, dass diese oberflächlichen Symptome nicht der eigentliche Grund waren  die Hand zu heben. Ich denke es ist der folgende:

Auch wenn ich regelmäßig Artikel auf zeit.de, sueddeutsche.de oder spon.de lese, ich habe nicht das Gefühl, dass ich Nutzer dieser Sites bin.

Vielmehr bin ich Nutzer von Google Reader, Twitter und der persönlichen Empfehlungen von @jochenjochen, @ploechinger und @lyssaslounge (und vielen weiteren Personen / Kleinorganisationen).

(Unnoetiger Detailkram wie sich meine Nutzung von Google Reader und Twitter über die Jahre verändert hat gelöscht).

Und da es mittlerweile nicht nur “Geeks” wie ich sind, die die von ihnen gelesenen Inhalte “unbundled” via Aggregatoren und Kuratierung lesen, ist das für mich mit die größte Herausforderung vor der die Medienhäuser stehen. Die Auflösung ihrer Marke in eine Menge von Untermarken / Personen als Marken.

Exkurs: Serendipity

Oft habe ich in den letzten Jahren von Seiten der Medienhäusern dann gehört, das doch das Schnüren des Paketes “Tageszeitung”  den Vorteil bietet, dass man dort auch Dinge findet, nach denen man gar nicht gesucht hätte. Die berühmte “überrasschende Entdeckung” oder engl. “Serendipity”.  Denen kann ich nur entgegenhalten, dass ich, aufgrund der Tatsache, dass Menschen neben ihrer Arbeit / ihrem Kernthema auch ein Leben haben, über das sie auch in ihren Blogposts und Tweets berichten, mindestens genau so viele “überraschende Entdeckungen” gemacht habe. Insbesondere von anderen Menschen / Blogs / Timelines die es auch zu lesen lohnt.

Exkurs: Paywalls

Ich bin seit ihrer Einführung bislang noch nicht an  die “Metered Paywall” der New York Times gestossen, obwohl ich via Empfehlung häufig Inhalte von ihr lese. Und wenn ich an sie stiesse, würde ich wohl kein Abo abschliessen. Ein Abo für ein einzelnes Medium, für mein Leseverhalten eher ein Anachronismus.

Dann lieber nach bester Mobilfunkart Pakete für Qualitätsinhalte in unterschiedlichen Größen als Vertrag oder Prepaid. (Ich würde wohl mit Prepaid anfangen). Aber dafür fiel mir in der Diskussion zwischen @lyssaslounge, @ploechinger und @jochenjochen zu oft das Wort Kartellamt. Wenn einer der doch reichlich anwesenden Journalisten da doch mal nachrecherchieren würde :-)