ActivityPub Viewer

A small tool to view real-world ActivityPub objects as JSON! Enter a URL or username from Mastodon or a similar service below, and we'll send a request with the right Accept header to the server to view the underlying object.

Open in browser →
{ "@context": [ "https://www.w3.org/ns/activitystreams", { "ostatus": "http://ostatus.org#", "atomUri": "ostatus:atomUri", "inReplyToAtomUri": "ostatus:inReplyToAtomUri", "conversation": "ostatus:conversation", "sensitive": "as:sensitive", "toot": "http://joinmastodon.org/ns#", "votersCount": "toot:votersCount", "Hashtag": "as:Hashtag" } ], "id": "https://mastodon.ml/users/yastreb/statuses/112458412914210683", "type": "Note", "summary": null, "inReplyTo": null, "published": "2024-05-17T20:53:20Z", "url": "https://mastodon.ml/@yastreb/112458412914210683", "attributedTo": "https://mastodon.ml/users/yastreb", "to": [ "https://www.w3.org/ns/activitystreams#Public" ], "cc": [ "https://mastodon.ml/users/yastreb/followers" ], "sensitive": false, "atomUri": "https://mastodon.ml/users/yastreb/statuses/112458412914210683", "inReplyToAtomUri": null, "conversation": "tag:mastodon.ml,2024-05-17:objectId=32463283:objectType=Conversation", "content": "<p>Разобрался в основном с алгоритмом обучения gradual value/policy iteration, прикольненький.</p><p><a href=\"https://gibberblot.github.io/rl-notes/single-agent/policy-iteration.html\" target=\"_blank\" rel=\"nofollow noopener noreferrer\" translate=\"no\"><span class=\"invisible\">https://</span><span class=\"ellipsis\">gibberblot.github.io/rl-notes/</span><span class=\"invisible\">single-agent/policy-iteration.html</span></a> тут что-то про него</p><p>Всё ради того, чтобы разобрать статью. Какого формата статья?</p><p>&quot;Смотрите, круто если мы будем reward при обучении с подкреплением не максимизировать, а делать равным чему-то. Вот как это делать. Оказывается, если выбирать интервал, то получается много способов это сделать. Тогда можно наложить всяких ограничений по безопасности, чтобы не улететь по случайности в ту или иную сторону, или не выбирать слишком хардовые шаги и тд&quot;</p><p><a href=\"https://www.lesswrong.com/s/4TT69Yt5FDWijAWab\" target=\"_blank\" rel=\"nofollow noopener noreferrer\" translate=\"no\"><span class=\"invisible\">https://www.</span><span class=\"ellipsis\">lesswrong.com/s/4TT69Yt5FDWijA</span><span class=\"invisible\">Wab</span></a></p><p><a href=\"https://mastodon.ml/tags/ml\" class=\"mention hashtag\" rel=\"tag\">#<span>ml</span></a> <a href=\"https://mastodon.ml/tags/lesswrong\" class=\"mention hashtag\" rel=\"tag\">#<span>lesswrong</span></a></p>", "contentMap": { "ru": "<p>Разобрался в основном с алгоритмом обучения gradual value/policy iteration, прикольненький.</p><p><a href=\"https://gibberblot.github.io/rl-notes/single-agent/policy-iteration.html\" target=\"_blank\" rel=\"nofollow noopener noreferrer\" translate=\"no\"><span class=\"invisible\">https://</span><span class=\"ellipsis\">gibberblot.github.io/rl-notes/</span><span class=\"invisible\">single-agent/policy-iteration.html</span></a> тут что-то про него</p><p>Всё ради того, чтобы разобрать статью. Какого формата статья?</p><p>&quot;Смотрите, круто если мы будем reward при обучении с подкреплением не максимизировать, а делать равным чему-то. Вот как это делать. Оказывается, если выбирать интервал, то получается много способов это сделать. Тогда можно наложить всяких ограничений по безопасности, чтобы не улететь по случайности в ту или иную сторону, или не выбирать слишком хардовые шаги и тд&quot;</p><p><a href=\"https://www.lesswrong.com/s/4TT69Yt5FDWijAWab\" target=\"_blank\" rel=\"nofollow noopener noreferrer\" translate=\"no\"><span class=\"invisible\">https://www.</span><span class=\"ellipsis\">lesswrong.com/s/4TT69Yt5FDWijA</span><span class=\"invisible\">Wab</span></a></p><p><a href=\"https://mastodon.ml/tags/ml\" class=\"mention hashtag\" rel=\"tag\">#<span>ml</span></a> <a href=\"https://mastodon.ml/tags/lesswrong\" class=\"mention hashtag\" rel=\"tag\">#<span>lesswrong</span></a></p>" }, "attachment": [], "tag": [ { "type": "Hashtag", "href": "https://mastodon.ml/tags/ml", "name": "#ml" }, { "type": "Hashtag", "href": "https://mastodon.ml/tags/lesswrong", "name": "#lesswrong" } ], "replies": { "id": "https://mastodon.ml/users/yastreb/statuses/112458412914210683/replies", "type": "Collection", "first": { "type": "CollectionPage", "next": "https://mastodon.ml/users/yastreb/statuses/112458412914210683/replies?only_other_accounts=true&page=true", "partOf": "https://mastodon.ml/users/yastreb/statuses/112458412914210683/replies", "items": [] } }, "likes": { "id": "https://mastodon.ml/users/yastreb/statuses/112458412914210683/likes", "type": "Collection", "totalItems": 0 }, "shares": { "id": "https://mastodon.ml/users/yastreb/statuses/112458412914210683/shares", "type": "Collection", "totalItems": 0 } }