A small tool to view real-world ActivityPub objects as JSON! Enter a URL
or username from Mastodon or a similar service below, and we'll send a
request with
the right
Accept
header
to the server to view the underlying object.
{
"@context": [
"https://www.w3.org/ns/activitystreams",
{
"ostatus": "http://ostatus.org#",
"atomUri": "ostatus:atomUri",
"inReplyToAtomUri": "ostatus:inReplyToAtomUri",
"conversation": "ostatus:conversation",
"sensitive": "as:sensitive",
"toot": "http://joinmastodon.org/ns#",
"votersCount": "toot:votersCount",
"expiry": "toot:expiry",
"Hashtag": "as:Hashtag"
}
],
"id": "https://qoto.org/users/InterNews112/statuses/114128496928867472",
"type": "Note",
"summary": null,
"inReplyTo": null,
"published": "2025-03-08T19:37:40Z",
"url": "https://qoto.org/@InterNews112/114128496928867472",
"attributedTo": "https://qoto.org/users/InterNews112",
"to": [
"https://www.w3.org/ns/activitystreams#Public"
],
"cc": [
"https://qoto.org/users/InterNews112/followers"
],
"sensitive": false,
"atomUri": "https://qoto.org/users/InterNews112/statuses/114128496928867472",
"inReplyToAtomUri": null,
"conversation": "tag:qoto.org,2025-03-08:objectId=114128496928860418:objectType=Conversation",
"context": "https://qoto.org/contexts/114128496928860418",
"content": "<p>### Современные текстовые нейросети: от теории к практике<br />Начало 2025 года ознаменовалось динамичным развитием технологий искусственного интеллекта, где ключевую роль играют крупные языковые модели. Китайская компания DeepSeek бросила вызов лидерам рынка, представив бесплатный чат-бот с открытым исходным кодом, что спровоцировало снижение акций NVIDIA на 10% и заставило Кремниевую долину пересмотреть свои стратегии[1]. Этот прорыв демонстрирует, как новые подходы к обучению моделей и оптимизации вычислительных ресурсов трансформируют индустрию ИИ.<br />## Основные понятия: нейросети и токенизация<br />Искусственные нейронные сети имитируют работу человеческого мозга, используя многослойные структуры взаимосвязанных "нейронов" для обработки информации. В контексте языковых моделей это проявляется в способности анализировать и генерировать текст, выявляя сложные закономерности в данных[1].<br />**Токенизация** представляет собой процесс разбиения текста на смысловые единицы. Например, предложение "ИИ меняет мир" распадается на три токена: ["ИИ", "меняет", "мир"]. Современные языковые модели оперируют контекстными окнами от 4 тыс. до 1 млн токенов, что определяет их способность "запоминать" предыдущие взаимодействия[1].<br />## Ведущие языковые модели<br />### OpenAI ChatGPT<br />Пионер в области языковых моделей, представивший GPT-4 и ChatGPT-5, поддерживающие до 128 тыс. токенов контекста. Универсальность позволяет использовать их как для создания художественных текстов, так и для анализа юридических документов[1]. Коммерческое API стоит $0.03 за 1 тыс. токенов ввода и требует строгой модерации контента.<br />**Автомобильный аналог**: Mercedes-Benz. **Слоган**: "Лучшее или ничего".<br />**Ссылка**: <a href=\"https://chat.openai.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">chat.openai.com/</span><span class=\"invisible\"></span></a><br />### DeepSeek-V3<br />Китайская разработка с открытым исходным кодом, потрясшая рынок технологических компаний. Использует инновационные методы обучения, сокращая бюджет разработки до $6 млн по сравнению с многомиллиардными затратами конкурентов[1]. Бесплатный доступ через приложение R1 с контекстным окном 32 тыс. токенов делает её популярной среди исследователей.<br />**Автомобильный аналог**: Tesla. **Слоган**: "Ускоряя переход к устойчивой энергетике".<br />**Ссылка**: <a href=\"https://chat.deepseek.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">chat.deepseek.com/</span><span class=\"invisible\"></span></a><br />### Anthropic Claude 3<br />Разработка, ориентированная на анализ длинных текстов с рекордным контекстом в 1 млн токенов. Оптимальна для работы с технической документацией, однако стоимость API достигает $0.25 за 1 тыс. выходных токенов. Отличается строгими этическими фильтрами контента[2].<br />**Автомобильный аналог**: Volvo. **Слоган**: "For life".<br />**Ссылка**: <a href=\"https://www.anthropic.com/claude\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://www.</span><span class=\"\">anthropic.com/claude</span><span class=\"invisible\"></span></a><br />### Qwen2.5<br />Совместный проект Alibaba и китайских исследовательских институтов. Поддерживает 64 тыс. токенов и ориентирован на мультиязычность, демонстрируя лучшие результаты для азиатских языков[3]. Бесплатная версия доступна через облачный сервис Aliyun.<br />**Автомобильный аналог**: Toyota. **Слоган**: "Let's Go Places".<br />**Ссылка**: <a href=\"https://qianwen.aliyun.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">qianwen.aliyun.com/</span><span class=\"invisible\"></span></a><br />## Сравнительный анализ моделей<br />**Глубина анализа**:<br />- ChatGPT: 9/10 (универсальность)<br />- DeepSeek: 8.5/10 (исследовательская направленность)<br />- Claude 3: 9.5/10 (работа с длинными текстами)<br />- Qwen2.5: 8/10 (мультиязычность)<br />**Экономическая эффективность**:<br />- DeepSeek R1: бесплатно (32k токенов)<br />- ChatGPT Plus: $20/мес (128k токенов)<br />- Claude Team: $30/мес (1M токенов)<br />- Qwen2.5: бесплатно через Aliyun (64k токенов)<br />**Ограничения**:<br />- Политическая цензура у китайских моделей<br />- Высокие требования к оборудованию для локального запуска<br />- Возможные задержки ответа в облачных решениях при высокой нагрузке<br />## Будущее индустрии<br />Падение акций NVIDIA на 10% после выхода DeepSeek свидетельствует о переходе фокуса с аппаратных мощностей на алгоритмическую эффективность. По прогнозам Citi, к 2026 году 70% задач обработки естественного языка будут выполняться моделями с открытым исходным кодом[3].<br />Развитие локальных решений создаёт новый рынок "персонализированных ИИ", где пользователи смогут обучать модели под свои нужды без зависимости от облачных платформ. Это особенно важно для малого бизнеса и независимых исследователей[4].<br />## Локальные нейросети: установка и настройка<br />Платформа **Ollama** делает запуск ИИ-моделей доступным для персональных компьютеров. Требования:<br />- Видеокарта с 8+ ГБ памяти (RTX 2070/4060)<br />- 16 ГБ оперативной памяти<br />- Поддержка CUDA (NVIDIA) или ROCm (AMD)<br />Установка через терминал:<br />```bash<br />curl -fsSL <a href=\"https://ollama.ai/install.sh\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">ollama.ai/install.sh</span><span class=\"invisible\"></span></a> | sh<br />ollama run llama3<br />```<br />Этот код запускает модель LLaMA 3 с контекстом 8 тыс. токенов. Пользователи отмечают удобную интеграцию с Python-библиотеками для создания кастомных решений, хотя возможны трудности с мультиязычными ответами[6].<br />**Автомобильный аналог**: Jeep. **Слоган**: "Go Anywhere, Do Anything".<br />**Ссылка**: <a href=\"https://ollama.ai/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">ollama.ai/</span><span class=\"invisible\"></span></a><br />## Заключение<br />Выбор языковой модели зависит от конкретных задач: DeepSeek предлагает лучшую стоимость для академических исследований, ChatGPT остаётся лидером в универсальности, Claude 3 выделяется обработкой длинных текстов, а Qwen2.5 выигрывает в мультиязычности[5]. С развитием технологий токенизация и оптимизация вычислений продолжат играть ключевую роль в удешевлении и ускорении обработки данных.<br />### Хэштеги:<br /><a href=\"https://qoto.org/tags/AI\" class=\"mention hashtag\" rel=\"tag\">#<span>AI</span></a> <a href=\"https://qoto.org/tags/MachineLearning\" class=\"mention hashtag\" rel=\"tag\">#<span>MachineLearning</span></a> <a href=\"https://qoto.org/tags/NeuralNetworks\" class=\"mention hashtag\" rel=\"tag\">#<span>NeuralNetworks</span></a> <a href=\"https://qoto.org/tags/DeepLearning\" class=\"mention hashtag\" rel=\"tag\">#<span>DeepLearning</span></a> <a href=\"https://qoto.org/tags/NLP\" class=\"mention hashtag\" rel=\"tag\">#<span>NLP</span></a> <a href=\"https://qoto.org/tags/LLM\" class=\"mention hashtag\" rel=\"tag\">#<span>LLM</span></a> <a href=\"https://qoto.org/tags/ChatGPT\" class=\"mention hashtag\" rel=\"tag\">#<span>ChatGPT</span></a> <a href=\"https://qoto.org/tags/ClaudeAI\" class=\"mention hashtag\" rel=\"tag\">#<span>ClaudeAI</span></a> <a href=\"https://qoto.org/tags/DeepSeek\" class=\"mention hashtag\" rel=\"tag\">#<span>DeepSeek</span></a> <a href=\"https://qoto.org/tags/Qwen\" class=\"mention hashtag\" rel=\"tag\">#<span>Qwen</span></a> <a href=\"https://qoto.org/tags/Ollama\" class=\"mention hashtag\" rel=\"tag\">#<span>Ollama</span></a> <a href=\"https://qoto.org/tags/Tokenization\" class=\"mention hashtag\" rel=\"tag\">#<span>Tokenization</span></a> <a href=\"https://qoto.org/tags/OpenSourceAI\" class=\"mention hashtag\" rel=\"tag\">#<span>OpenSourceAI</span></a> <a href=\"https://qoto.org/tags/TechTrends\" class=\"mention hashtag\" rel=\"tag\">#<span>TechTrends</span></a> <a href=\"https://qoto.org/tags/AIResearch\" class=\"mention hashtag\" rel=\"tag\">#<span>AIResearch</span></a> <a href=\"https://qoto.org/tags/AIModels\" class=\"mention hashtag\" rel=\"tag\">#<span>AIModels</span></a> <a href=\"https://qoto.org/tags/AIInnovation\" class=\"mention hashtag\" rel=\"tag\">#<span>AIInnovation</span></a><br />### Литература:<br />1. Bengio Y., Goodfellow I., Courville A. *Deep Learning*. MIT Press, 2016.<br />2. Vaswani A. et al. *Attention is All You Need*. NeurIPS, 2017.<br />3. Brown T. et al. *Language Models are Few-Shot Learners*. NeurIPS, 2020.<br />4. OpenAI Research. *Scaling Laws for Neural Language Models*, 2020.<br />5. Hestness J. et al. *Deep Learning Scaling is Predictable, Empirically*. arXiv:1712.00409, 2017.<br />6. Radford A. et al. *Improving Language Understanding by Generative Pre-Training*. OpenAI, 2018.<br />7. DeepSeek AI. *Technical Report on DeepSeek-V3*, 2025.<br />8. Anthropic AI. *Claude Model Architecture and Capabilities*, 2024.<br />9. Alibaba Cloud Research. *Qwen Model Overview*, 2024.<br />10. NVIDIA AI Labs. *Future of AI Hardware and Optimization*, 2024.<br />11. Citigroup AI Analysis. *Market Trends in LLM Development*, 2025.<br />12. Stanford NLP Group. *Comprehensive Guide to Tokenization*, 2023.</p><p><a href=\"https://bastyon.com/post?s=47273c436dce8b15495f4d1464b26e787967cdf03ace2adf285c579f24f09cf3&ref=PMC55eKCrsxoJNkiB3f71AgFLQC3T9HkWV\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"ellipsis\">bastyon.com/post?s=47273c436dc</span><span class=\"invisible\">e8b15495f4d1464b26e787967cdf03ace2adf285c579f24f09cf3&ref=PMC55eKCrsxoJNkiB3f71AgFLQC3T9HkWV</span></a></p>",
"contentMap": {
"ru": "<p>### Современные текстовые нейросети: от теории к практике<br />Начало 2025 года ознаменовалось динамичным развитием технологий искусственного интеллекта, где ключевую роль играют крупные языковые модели. Китайская компания DeepSeek бросила вызов лидерам рынка, представив бесплатный чат-бот с открытым исходным кодом, что спровоцировало снижение акций NVIDIA на 10% и заставило Кремниевую долину пересмотреть свои стратегии[1]. Этот прорыв демонстрирует, как новые подходы к обучению моделей и оптимизации вычислительных ресурсов трансформируют индустрию ИИ.<br />## Основные понятия: нейросети и токенизация<br />Искусственные нейронные сети имитируют работу человеческого мозга, используя многослойные структуры взаимосвязанных "нейронов" для обработки информации. В контексте языковых моделей это проявляется в способности анализировать и генерировать текст, выявляя сложные закономерности в данных[1].<br />**Токенизация** представляет собой процесс разбиения текста на смысловые единицы. Например, предложение "ИИ меняет мир" распадается на три токена: ["ИИ", "меняет", "мир"]. Современные языковые модели оперируют контекстными окнами от 4 тыс. до 1 млн токенов, что определяет их способность "запоминать" предыдущие взаимодействия[1].<br />## Ведущие языковые модели<br />### OpenAI ChatGPT<br />Пионер в области языковых моделей, представивший GPT-4 и ChatGPT-5, поддерживающие до 128 тыс. токенов контекста. Универсальность позволяет использовать их как для создания художественных текстов, так и для анализа юридических документов[1]. Коммерческое API стоит $0.03 за 1 тыс. токенов ввода и требует строгой модерации контента.<br />**Автомобильный аналог**: Mercedes-Benz. **Слоган**: "Лучшее или ничего".<br />**Ссылка**: <a href=\"https://chat.openai.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">chat.openai.com/</span><span class=\"invisible\"></span></a><br />### DeepSeek-V3<br />Китайская разработка с открытым исходным кодом, потрясшая рынок технологических компаний. Использует инновационные методы обучения, сокращая бюджет разработки до $6 млн по сравнению с многомиллиардными затратами конкурентов[1]. Бесплатный доступ через приложение R1 с контекстным окном 32 тыс. токенов делает её популярной среди исследователей.<br />**Автомобильный аналог**: Tesla. **Слоган**: "Ускоряя переход к устойчивой энергетике".<br />**Ссылка**: <a href=\"https://chat.deepseek.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">chat.deepseek.com/</span><span class=\"invisible\"></span></a><br />### Anthropic Claude 3<br />Разработка, ориентированная на анализ длинных текстов с рекордным контекстом в 1 млн токенов. Оптимальна для работы с технической документацией, однако стоимость API достигает $0.25 за 1 тыс. выходных токенов. Отличается строгими этическими фильтрами контента[2].<br />**Автомобильный аналог**: Volvo. **Слоган**: "For life".<br />**Ссылка**: <a href=\"https://www.anthropic.com/claude\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://www.</span><span class=\"\">anthropic.com/claude</span><span class=\"invisible\"></span></a><br />### Qwen2.5<br />Совместный проект Alibaba и китайских исследовательских институтов. Поддерживает 64 тыс. токенов и ориентирован на мультиязычность, демонстрируя лучшие результаты для азиатских языков[3]. Бесплатная версия доступна через облачный сервис Aliyun.<br />**Автомобильный аналог**: Toyota. **Слоган**: "Let's Go Places".<br />**Ссылка**: <a href=\"https://qianwen.aliyun.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">qianwen.aliyun.com/</span><span class=\"invisible\"></span></a><br />## Сравнительный анализ моделей<br />**Глубина анализа**:<br />- ChatGPT: 9/10 (универсальность)<br />- DeepSeek: 8.5/10 (исследовательская направленность)<br />- Claude 3: 9.5/10 (работа с длинными текстами)<br />- Qwen2.5: 8/10 (мультиязычность)<br />**Экономическая эффективность**:<br />- DeepSeek R1: бесплатно (32k токенов)<br />- ChatGPT Plus: $20/мес (128k токенов)<br />- Claude Team: $30/мес (1M токенов)<br />- Qwen2.5: бесплатно через Aliyun (64k токенов)<br />**Ограничения**:<br />- Политическая цензура у китайских моделей<br />- Высокие требования к оборудованию для локального запуска<br />- Возможные задержки ответа в облачных решениях при высокой нагрузке<br />## Будущее индустрии<br />Падение акций NVIDIA на 10% после выхода DeepSeek свидетельствует о переходе фокуса с аппаратных мощностей на алгоритмическую эффективность. По прогнозам Citi, к 2026 году 70% задач обработки естественного языка будут выполняться моделями с открытым исходным кодом[3].<br />Развитие локальных решений создаёт новый рынок "персонализированных ИИ", где пользователи смогут обучать модели под свои нужды без зависимости от облачных платформ. Это особенно важно для малого бизнеса и независимых исследователей[4].<br />## Локальные нейросети: установка и настройка<br />Платформа **Ollama** делает запуск ИИ-моделей доступным для персональных компьютеров. Требования:<br />- Видеокарта с 8+ ГБ памяти (RTX 2070/4060)<br />- 16 ГБ оперативной памяти<br />- Поддержка CUDA (NVIDIA) или ROCm (AMD)<br />Установка через терминал:<br />```bash<br />curl -fsSL <a href=\"https://ollama.ai/install.sh\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">ollama.ai/install.sh</span><span class=\"invisible\"></span></a> | sh<br />ollama run llama3<br />```<br />Этот код запускает модель LLaMA 3 с контекстом 8 тыс. токенов. Пользователи отмечают удобную интеграцию с Python-библиотеками для создания кастомных решений, хотя возможны трудности с мультиязычными ответами[6].<br />**Автомобильный аналог**: Jeep. **Слоган**: "Go Anywhere, Do Anything".<br />**Ссылка**: <a href=\"https://ollama.ai/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">ollama.ai/</span><span class=\"invisible\"></span></a><br />## Заключение<br />Выбор языковой модели зависит от конкретных задач: DeepSeek предлагает лучшую стоимость для академических исследований, ChatGPT остаётся лидером в универсальности, Claude 3 выделяется обработкой длинных текстов, а Qwen2.5 выигрывает в мультиязычности[5]. С развитием технологий токенизация и оптимизация вычислений продолжат играть ключевую роль в удешевлении и ускорении обработки данных.<br />### Хэштеги:<br /><a href=\"https://qoto.org/tags/AI\" class=\"mention hashtag\" rel=\"tag\">#<span>AI</span></a> <a href=\"https://qoto.org/tags/MachineLearning\" class=\"mention hashtag\" rel=\"tag\">#<span>MachineLearning</span></a> <a href=\"https://qoto.org/tags/NeuralNetworks\" class=\"mention hashtag\" rel=\"tag\">#<span>NeuralNetworks</span></a> <a href=\"https://qoto.org/tags/DeepLearning\" class=\"mention hashtag\" rel=\"tag\">#<span>DeepLearning</span></a> <a href=\"https://qoto.org/tags/NLP\" class=\"mention hashtag\" rel=\"tag\">#<span>NLP</span></a> <a href=\"https://qoto.org/tags/LLM\" class=\"mention hashtag\" rel=\"tag\">#<span>LLM</span></a> <a href=\"https://qoto.org/tags/ChatGPT\" class=\"mention hashtag\" rel=\"tag\">#<span>ChatGPT</span></a> <a href=\"https://qoto.org/tags/ClaudeAI\" class=\"mention hashtag\" rel=\"tag\">#<span>ClaudeAI</span></a> <a href=\"https://qoto.org/tags/DeepSeek\" class=\"mention hashtag\" rel=\"tag\">#<span>DeepSeek</span></a> <a href=\"https://qoto.org/tags/Qwen\" class=\"mention hashtag\" rel=\"tag\">#<span>Qwen</span></a> <a href=\"https://qoto.org/tags/Ollama\" class=\"mention hashtag\" rel=\"tag\">#<span>Ollama</span></a> <a href=\"https://qoto.org/tags/Tokenization\" class=\"mention hashtag\" rel=\"tag\">#<span>Tokenization</span></a> <a href=\"https://qoto.org/tags/OpenSourceAI\" class=\"mention hashtag\" rel=\"tag\">#<span>OpenSourceAI</span></a> <a href=\"https://qoto.org/tags/TechTrends\" class=\"mention hashtag\" rel=\"tag\">#<span>TechTrends</span></a> <a href=\"https://qoto.org/tags/AIResearch\" class=\"mention hashtag\" rel=\"tag\">#<span>AIResearch</span></a> <a href=\"https://qoto.org/tags/AIModels\" class=\"mention hashtag\" rel=\"tag\">#<span>AIModels</span></a> <a href=\"https://qoto.org/tags/AIInnovation\" class=\"mention hashtag\" rel=\"tag\">#<span>AIInnovation</span></a><br />### Литература:<br />1. Bengio Y., Goodfellow I., Courville A. *Deep Learning*. MIT Press, 2016.<br />2. Vaswani A. et al. *Attention is All You Need*. NeurIPS, 2017.<br />3. Brown T. et al. *Language Models are Few-Shot Learners*. NeurIPS, 2020.<br />4. OpenAI Research. *Scaling Laws for Neural Language Models*, 2020.<br />5. Hestness J. et al. *Deep Learning Scaling is Predictable, Empirically*. arXiv:1712.00409, 2017.<br />6. Radford A. et al. *Improving Language Understanding by Generative Pre-Training*. OpenAI, 2018.<br />7. DeepSeek AI. *Technical Report on DeepSeek-V3*, 2025.<br />8. Anthropic AI. *Claude Model Architecture and Capabilities*, 2024.<br />9. Alibaba Cloud Research. *Qwen Model Overview*, 2024.<br />10. NVIDIA AI Labs. *Future of AI Hardware and Optimization*, 2024.<br />11. Citigroup AI Analysis. *Market Trends in LLM Development*, 2025.<br />12. Stanford NLP Group. *Comprehensive Guide to Tokenization*, 2023.</p><p><a href=\"https://bastyon.com/post?s=47273c436dce8b15495f4d1464b26e787967cdf03ace2adf285c579f24f09cf3&ref=PMC55eKCrsxoJNkiB3f71AgFLQC3T9HkWV\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"ellipsis\">bastyon.com/post?s=47273c436dc</span><span class=\"invisible\">e8b15495f4d1464b26e787967cdf03ace2adf285c579f24f09cf3&ref=PMC55eKCrsxoJNkiB3f71AgFLQC3T9HkWV</span></a></p>"
},
"attachment": [],
"tag": [
{
"type": "Hashtag",
"href": "https://qoto.org/tags/ai",
"name": "#ai"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/machinelearning",
"name": "#machinelearning"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/neuralnetworks",
"name": "#neuralnetworks"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/deeplearning",
"name": "#deeplearning"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/nlp",
"name": "#nlp"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/llm",
"name": "#llm"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/chatgpt",
"name": "#chatgpt"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/claudeai",
"name": "#claudeai"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/deepseek",
"name": "#deepseek"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/qwen",
"name": "#qwen"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/ollama",
"name": "#ollama"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/tokenization",
"name": "#tokenization"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/opensourceai",
"name": "#opensourceai"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/techtrends",
"name": "#techtrends"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/airesearch",
"name": "#airesearch"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/aimodels",
"name": "#aimodels"
},
{
"type": "Hashtag",
"href": "https://qoto.org/tags/AIInnovation",
"name": "#AIInnovation"
}
],
"replies": {
"id": "https://qoto.org/users/InterNews112/statuses/114128496928867472/replies",
"type": "Collection",
"first": {
"type": "CollectionPage",
"next": "https://qoto.org/users/InterNews112/statuses/114128496928867472/replies?only_other_accounts=true&page=true",
"partOf": "https://qoto.org/users/InterNews112/statuses/114128496928867472/replies",
"items": []
}
}
}