⚡ En bref1Un modèle de langage de 13 milliards de paramètres, nommé 'Talkie', a été formé uniquement sur des textes antérieurs à 1931. 2Il ne prévoit pas de seconde guerre mondiale et imagine 2026 comme un monde de bateaux à vapeur, de chemins de fer et d... See more
Here is what an LLM that knows nothing after 1930 thinks our world looks like in 2026 Key Points - Researchers led by prominent AI developer Alec Radford have built "talkie," a 13-billion-parameter language model trained exclusively on texts published bef... See more
Was ein Sprachmodell über die Zukunft denkt, das nur mit Texten vor 1931 trainiert wurde Kurz & Knapp - Forscher um den bekannten KI-Entwickler Alec Radford haben mit "talkie" ein KI-Sprachmodell mit 13 Milliarden Parametern entwickelt, das ausschließ... See more
OpenAI kills its dedicated coding model Codex again, folding it into GPT-5.5 With GPT-5.4, OpenAI rolled its separate Codex model for programming tasks into the main model. There's no dedicated coding line anymore, explains Romain Huet, OpenAI's Head of D... See more
OpenAI schafft separates Coding-Modell Codex wieder ab – GPT-5.5 übernimmt OpenAI hat mit GPT-5.4 das separate Codex-Modell für Programmieraufgaben mit dem Hauptmodell zusammengeführt. Es gibt also keine eigene Coding-Linie mehr, erklärt Romain Huet, Head... See more