(no subject)
Jan. 17th, 2026 09:54 amОТВЕТ:
1. "Пирушка над магистралью" — Пикник на обочине
2. "Слизняк над равниной" — Улитка на склоне

Раздумывал чего бы написать по сабжу, и в раздумьях набрел
на старый добрый ламповый Wildsnow, а там набрел на это вот.
В качестве иллюстрации там какой-то сэндвич, а в тексте упоминается
"baked-that-morning croissants, fluffy pastries". Это когда ж они
перед скитуром успели круасанов напечь, обычно в серьезные миссии
люди выходят на trailhead еще затемно. Но черт его знает, будем
посмотреть, и возможно, почитать.
Еще летом я собирался поэкспериментировать с едой в однодневные
походы, после того как открыл для себя вакуумные пакеты с зиплоком,
позволявшие среди прочего, плотно упаковывать еду в дей-пак.
Первый эксперимент с подобным перекусом был так себе, я нарезал
копченого сала с интенцией сожрать его вместе с чаем на природе,
в самой удаленной или высокой точки вылазки. Сало проехало несколько
часов в рюкзаке на морозе, и даже с чаем кому-то зашло, а кому-то
и нет. Что касается упоминавшегося уже сэндвича, то, с одной стороны,
они не все одинаково полезны, а с другой, в один из прошлых разов
нам сунули в рюкзаки какую-то поделку из Safeway, и несмотря на то
что трапезовать мы пытались когда уже мы взощли на гору и порядком
устали, редко я пробовал что-то более гадкое. Так что пока дефолтом
у нас будут сухофрукты и какие-нибудь power bars.
( Немножечко кулинарной ностальгии )
Mossing and others, both at OpenAI and at rival firms including Anthropic and Google DeepMind, are ... studying them [LLMs] as if they were doing biology or neuroscience on vast living creatures—city-size xenomorphs that have appeared in our midst.
Anthropic and others have developed tools to let them trace certain paths that activations follow, revealing mechanisms and pathways inside a model much as a brain scan can reveal patterns of activity inside a brain. Such an approach to studying the internal workings of a model is known as mechanistic interpretability. “This is very much a biological type of analysis,” says Batson. “It’s not like math or physics.”
Anthropic invented a way to make large language models easier to understand by building a special second model (using a type of neural network called a sparse autoencoder) that works in a more transparent way than normal LLMs. This second model is then trained to mimic the behavior of the model the researchers want to study.
Creating a model that behaves in predictable ways in specific scenarios requires making assumptions about what the inner state of that model might be in those scenarios. But that only works if large language models have something analogous to the mental coherence that most people do.
And that might not be the case.
...
Another possible solution ... Instead of relying on imperfect techniques for insight into what they’re doing, why not build an LLM that’s easier to understand in the first place?
https://www.technologyreview.com/2026/01/12/1129782/ai-large-language-models-biology-alien-autopsy/
Шаґґі Бейн — Дуглас Стюарт
Глазго, Шотландія, переважно робітничі райони.
1980-ті.
Дорослішання хлопчика в умовах бідності, соціального занепаду й алкоголізму матері. Роман про залежність, сором, любов і спробу зберегти гідність у середовищі, що руйнується.

Перемеееееен
требуют наши сердца