Nein, mir ist schon klar, dass wir einen Grenzwert betrachten.
Du wirst mir doch zustimmen, dass die Laufzeit eines Algorithmus hier von der Anzahl der Rechtecke und von der Bildgröße abhängt, also von zwei Eingabegrößen. Damit hätten wir sowas wie O(n*m²) und O(n²*m), sind wie gesagt nur Beispiele.
Nun kannst du nicht sagen, was davon besser ist, oder?
Die Laufzeit des einen Algorithmus wächst quadratisch mit der Anzahl der Rechtecke und linear mit der Bildgröße, der andere linear mit der Anzahl der Rechtecke und quadratisch mit der Bildgröße.
Das ist vergleichbar mit Raytracing und Rasterizing. Was davon ist "besser" (also was davon sollte einen Contest gewinnen)?
Ja, kann (und wird) passieren. Was ich davon habe? Damit versuche ich, den Einfluss der verschiedenen Rechnerarchitekturen auf das Ergebnis zumindest etwas zu reduzieren.
Wie du sicher schon gesehen hast, sind wir Spieleentwickler. Von daher hat der Contest auch eine Art "dirty hacking"-Charakter. In Computerspielen muss man die Hardware voll ausreizen, Performance ist sehr wichtig. Was zählt ist, wie schnell das Spiel läuft. Den Spieler interessiert es nicht, welche Komplexität der verwendete Algorithmus hat, sondern dass er das Spiel flüssig spielen kann.
Die von dir zitierte Aussage kann man durchaus auch umdrehen: die Komplexität eines Algorithmus sagt nichts darüber aus, wie lange er tatsächlich braucht (und das ist es, was mich interessiert). In der O-Betrachtung gehen wir von Grenzwerten aus (n geht gegen unendlich). Hier haben wir es aber mit realen Daten zu tun, und da geht nichts gegen unendlich.