A small tool to view real-world ActivityPub objects as JSON! Enter a URL
or username from Mastodon or a similar service below, and we'll send a
request with
the right
Accept
header
to the server to view the underlying object.
{
"@context": [
"https://www.w3.org/ns/activitystreams",
{
"ostatus": "http://ostatus.org#",
"atomUri": "ostatus:atomUri",
"inReplyToAtomUri": "ostatus:inReplyToAtomUri",
"conversation": "ostatus:conversation",
"sensitive": "as:sensitive",
"toot": "http://joinmastodon.org/ns#",
"votersCount": "toot:votersCount",
"Hashtag": "as:Hashtag"
}
],
"id": "https://mastodon.ml/users/yastreb/statuses/112458412914210683",
"type": "Note",
"summary": null,
"inReplyTo": null,
"published": "2024-05-17T20:53:20Z",
"url": "https://mastodon.ml/@yastreb/112458412914210683",
"attributedTo": "https://mastodon.ml/users/yastreb",
"to": [
"https://www.w3.org/ns/activitystreams#Public"
],
"cc": [
"https://mastodon.ml/users/yastreb/followers"
],
"sensitive": false,
"atomUri": "https://mastodon.ml/users/yastreb/statuses/112458412914210683",
"inReplyToAtomUri": null,
"conversation": "tag:mastodon.ml,2024-05-17:objectId=32463283:objectType=Conversation",
"content": "<p>Разобрался в основном с алгоритмом обучения gradual value/policy iteration, прикольненький.</p><p><a href=\"https://gibberblot.github.io/rl-notes/single-agent/policy-iteration.html\" target=\"_blank\" rel=\"nofollow noopener noreferrer\" translate=\"no\"><span class=\"invisible\">https://</span><span class=\"ellipsis\">gibberblot.github.io/rl-notes/</span><span class=\"invisible\">single-agent/policy-iteration.html</span></a> тут что-то про него</p><p>Всё ради того, чтобы разобрать статью. Какого формата статья?</p><p>"Смотрите, круто если мы будем reward при обучении с подкреплением не максимизировать, а делать равным чему-то. Вот как это делать. Оказывается, если выбирать интервал, то получается много способов это сделать. Тогда можно наложить всяких ограничений по безопасности, чтобы не улететь по случайности в ту или иную сторону, или не выбирать слишком хардовые шаги и тд"</p><p><a href=\"https://www.lesswrong.com/s/4TT69Yt5FDWijAWab\" target=\"_blank\" rel=\"nofollow noopener noreferrer\" translate=\"no\"><span class=\"invisible\">https://www.</span><span class=\"ellipsis\">lesswrong.com/s/4TT69Yt5FDWijA</span><span class=\"invisible\">Wab</span></a></p><p><a href=\"https://mastodon.ml/tags/ml\" class=\"mention hashtag\" rel=\"tag\">#<span>ml</span></a> <a href=\"https://mastodon.ml/tags/lesswrong\" class=\"mention hashtag\" rel=\"tag\">#<span>lesswrong</span></a></p>",
"contentMap": {
"ru": "<p>Разобрался в основном с алгоритмом обучения gradual value/policy iteration, прикольненький.</p><p><a href=\"https://gibberblot.github.io/rl-notes/single-agent/policy-iteration.html\" target=\"_blank\" rel=\"nofollow noopener noreferrer\" translate=\"no\"><span class=\"invisible\">https://</span><span class=\"ellipsis\">gibberblot.github.io/rl-notes/</span><span class=\"invisible\">single-agent/policy-iteration.html</span></a> тут что-то про него</p><p>Всё ради того, чтобы разобрать статью. Какого формата статья?</p><p>"Смотрите, круто если мы будем reward при обучении с подкреплением не максимизировать, а делать равным чему-то. Вот как это делать. Оказывается, если выбирать интервал, то получается много способов это сделать. Тогда можно наложить всяких ограничений по безопасности, чтобы не улететь по случайности в ту или иную сторону, или не выбирать слишком хардовые шаги и тд"</p><p><a href=\"https://www.lesswrong.com/s/4TT69Yt5FDWijAWab\" target=\"_blank\" rel=\"nofollow noopener noreferrer\" translate=\"no\"><span class=\"invisible\">https://www.</span><span class=\"ellipsis\">lesswrong.com/s/4TT69Yt5FDWijA</span><span class=\"invisible\">Wab</span></a></p><p><a href=\"https://mastodon.ml/tags/ml\" class=\"mention hashtag\" rel=\"tag\">#<span>ml</span></a> <a href=\"https://mastodon.ml/tags/lesswrong\" class=\"mention hashtag\" rel=\"tag\">#<span>lesswrong</span></a></p>"
},
"attachment": [],
"tag": [
{
"type": "Hashtag",
"href": "https://mastodon.ml/tags/ml",
"name": "#ml"
},
{
"type": "Hashtag",
"href": "https://mastodon.ml/tags/lesswrong",
"name": "#lesswrong"
}
],
"replies": {
"id": "https://mastodon.ml/users/yastreb/statuses/112458412914210683/replies",
"type": "Collection",
"first": {
"type": "CollectionPage",
"next": "https://mastodon.ml/users/yastreb/statuses/112458412914210683/replies?only_other_accounts=true&page=true",
"partOf": "https://mastodon.ml/users/yastreb/statuses/112458412914210683/replies",
"items": []
}
},
"likes": {
"id": "https://mastodon.ml/users/yastreb/statuses/112458412914210683/likes",
"type": "Collection",
"totalItems": 0
},
"shares": {
"id": "https://mastodon.ml/users/yastreb/statuses/112458412914210683/shares",
"type": "Collection",
"totalItems": 0
}
}