Posts about Science (old posts, page 5)

I am a physicist, so naturally I also have things to share in this area. Here you can find articles about physics, but also about mathematics and statistics. Sometimes I also look at financial matters, these sometimes end up in this category.


Fahrgeräuschresonator zwischen Häusern

Wenn ein Haus mit der Front parallel zur Straße steht und gegenüber noch ein Haus ebenfalls parallel steht, ergibt sich ein wunderbarer Resonator. Im Bild sind die beiden grauen Blöcke die Häuser, das rote ein Auto auf der Fahrbahn zwischen den beiden Häusern.

Der Abstand der Hauswände ist ungefähr 15 m. Im ersten Stock sind die Fenster auf vielleicht 5 m Höhe. Damit hat man einen Winkel von 33° von der Fahrbahn direkt zum Fenster. Die Strecke, die der Schall zurücklegt ist dann 9.0 m. Aus der anderen Richtung mit Reflexion an der Hauswand ist der Steigungswinkel nur noch 13°. Die Gesamtstrecke für den Schall ist dann 23.0 m.

Wir haben also einen Gangunterschied von 14 m. Bei einer Schallgeschwindigkeit von 330 m/s sind die Resonanzfrequenzen dann Vielfache von 23.5 Hz. In einem Schallspektrum müsste man dann so Interferenzlinien sehen, wie sie beim Doppelspaltexperiment vorkommen.

Mit der Android-App Spectroid habe ich dann einfach am Fenster das Schallspektrum aufgenommen, während ein Auto vorbeigefahren ist. Die Zeit verläuft nach oben, unten ist alt, oben ist neu. Zur Seite sind die Frequenzen aufgetragen. Links sind die tiefen Frequenzen, rechts die hohen. Je heller es ist, desto stärker war diese Frequenz zu dem Zeitpunkt vertreten.

In der Ellipse sieht man, wie es erst lauter und dann wieder leiser wird. Das Auto nähert sich, und fährt wieder weg. Und dann ist da noch bei 43 Hz, also dem doppelten der grob abgeschätzten Resonanzfrequenz, ein signifikanter Beitrag. Es ist auch zeitlich beschränkt auf die Zeit, während der das Auto genau zwischen den Häusern war.

Man kann hier also gut eine Interferenz von Wellen in einem Resonanzraum zwischen zwei parallelen Häusern beobachten. Den Effekt kann man auch ohne Spektralanalyse wahrnehmen: Es wummert unangenehm, wenn ein Auto vorbeifährt.

CO₂ Footprint of my PhD Thesis

As part of my Master and PhD theses I have used a lot of computer time on supercomputers in Jülich, Stuttgart, Bologna and the cluster in Bonn. I want to estimate the magnitude of CO₂ that this has released.

It is a bit hard to say how many core hours I have used exactly as I have already used data that existed already. Let's take like 5 Mh to pick a number. Then on JUWELS with the dual Intel Xeon Platinum 8168 with 48 cores that is around 100 kh. Each of the CPUs has a TDP of 205 W. Then there is network, file system, backup. Perhaps 750 W per node? And then there is cooling, which roughly takes the same on top, so 1.5 kW per node. That makes 150 MWh of electricity used. In Germany it seems that we would have to take 0.4 kg/kWh of CO₂. This would then give a little over 60 t of CO₂.

Read more…

Clusting Recorded Routes

I record a bunch of my activities with Strava. And there are novel routes that I try out and only have done once. The other part are routes that I do more than once. The thing that I am missing on Strava is a comparison of similar routes. It has segments, but I would have to make my whole commute one segment in order to see how I fare on it.

So what I would like to try here is to use a clustering algorithm to automatically identify clusters of similar rides. And also I would like find rides that have the same start and end point, but different routes in between. In my machine learning book I read that there are clustering algorithms, so this is the project that I would like to apply them to.

Incidentally Strava features a lot of apps, so I had a look but could not find what I was looking for. Instead I want to program this myself in Python. One can export the data from Strava and obtains a ZIP file with all the GPX files corresponding to my activities.

Read more…

Are Clothespins Worth Using?

I've been using clothespins all along. I know other people who do as well, and some who never use them. While discussing this over dinner, it seems there are two stances that people take:

  1. Pins are not worth using at all. The clothing dries as fast as it does without them, perhaps insignificantly slower. The time needed to work with the pins does not make up for the benefit of having the laundry done faster.

  2. Pins clearly must do a difference as the clothing is just in two and not four layers.

Well, I am clearly in the second team. But this is a hypotheses that one can test and negate. So apply the scientific method! As a setup I took four pieces of underwear and two t-shirts. Then I put half of them on the dryer with pins, the other just folded in half. Every now and then I measured their weight with a kitchen scale.

Read more…

Mehrwertsteuersenkung und Veränderter Grundwert

Bei ALDI gibt es wegen der Mehrwertsteuersenkung aktuell 3 % auf alles. Mediamarkt hatte manchmal auch so Aktionen, bei denen es 19 % Rabatt unter dem Motto »Mediamarkt schenkt die Mehrwertsteuer« gibt. Interessant ist ja eigentlich, dass bei den Rabatten die Preise sogar noch weiter gesenkt werden als nötig.

Sei der Nettopreis $N$, dann ist der Bruttopreis $B$ bei einer Mehrwertsteuer $m$ gegeben durch $B = N \cdot (1 + m)$. Im Normalfall ist $m = 0.19$ und daher haben wir $B = 1.19 \cdot N$. Möchte man die Mehrwertsteuer erlassen, so muss man den einen Rabatt geben, der $1/1.19 \approx 0.8403361$ entspricht. Das ist aber ein Rabatt von $1 - 0.8403361 \approx 0.1596639$, also knapp unter 16 %. Würde Mediamarkt den Kunden aber nur 16 % Rabatt geben, wären wahrscheinlich viele empört. Also gibt es noch weitere 3 % Rabatt für alle, die in Prozentrechnung nicht so fit sind.

Read more…

Default Standard Deviation Estimators in Python NumPy and R

I recently noticed by accident that the default standard deviation implementations in R and NumPy (Python) do not give the same results. In R we have this:

> x <- 1:10
> x
 [1]  1  2  3  4  5  6  7  8  9 10
> sd(x)
[1] 3.02765

And in Python the following:

>>> import numpy as np
>>> x = np.arange(1, 11)
>>> x
array([ 1,  2,  3,  4,  5,  6,  7,  8,  9, 10])
>>> np.std(x)
2.8722813232690143

So why does one get 3.02 and the other 2.87? The difference is that R uses the unbiased estimator whereas NumPy by default uses the biased estimator. See this Wikipedia article for the details.

Read more…