LLMs tun sich mit logischer Deduktion schwer
Ich habe mit großen Sprachmodellen (LLMs) so meine Probleme, weil sie gerade in Deduktionsaufgaben total versagen können ohne dass man es direkt erkennen kann. Ein Beispiel.
Ich habe mit großen Sprachmodellen (LLMs) so meine Probleme, weil sie gerade in Deduktionsaufgaben total versagen können ohne dass man es direkt erkennen kann. Ein Beispiel.
Neulich habe ich über soziale Medien ein interessantes mathematisches Problem gesehen, auf das ich auch zuerst reingefallen bin. Man kann aber ziemlich viel über Statistik lernen, wenn man es auseinandernimmt.
In Mass Effect 3 gab es ein Rätsel, das mit ein bisschen Korrelationsanalyse ziemlich einfach zu lösen war.
Pseudoargumente von Scheibenwelt-Verschwörern sind zum einen erheiternd, zum anderen bieten sie aber auch einen vielleicht greifbaren Einstieg in die Welt von Mannigfaltigkeiten und Differentialgeometrie.
Machine learning and quantum mechanics have nothing in common physically. However, they are based on very similar building blocks from mathematics.
In Project Euler Problem 80: Square Root Digital Expansion we have to compute many digits in a square root.
Project Euler Problem 78: Coin partitions throws us back to partitions of integers, but now with a more demanding task.
In Project Euler Problem 75: Singular Integer Right Triangles we take a look at the Pythogorean theorem.
Project Euler Problem 73: Counting fractions in a range continues with fractions.