ActivityPub Viewer

A small tool to view real-world ActivityPub objects as JSON! Enter a URL or username from Mastodon or a similar service below, and we'll send a request with the right Accept header to the server to view the underlying object.

Open in browser →
{ "@context": [ "https://www.w3.org/ns/activitystreams", { "ostatus": "http://ostatus.org#", "atomUri": "ostatus:atomUri", "inReplyToAtomUri": "ostatus:inReplyToAtomUri", "conversation": "ostatus:conversation", "sensitive": "as:sensitive", "toot": "http://joinmastodon.org/ns#", "votersCount": "toot:votersCount", "expiry": "toot:expiry", "Hashtag": "as:Hashtag" } ], "id": "https://qoto.org/users/InterNews112/statuses/114128496928867472", "type": "Note", "summary": null, "inReplyTo": null, "published": "2025-03-08T19:37:40Z", "url": "https://qoto.org/@InterNews112/114128496928867472", "attributedTo": "https://qoto.org/users/InterNews112", "to": [ "https://www.w3.org/ns/activitystreams#Public" ], "cc": [ "https://qoto.org/users/InterNews112/followers" ], "sensitive": false, "atomUri": "https://qoto.org/users/InterNews112/statuses/114128496928867472", "inReplyToAtomUri": null, "conversation": "tag:qoto.org,2025-03-08:objectId=114128496928860418:objectType=Conversation", "context": "https://qoto.org/contexts/114128496928860418", "content": "<p>### Современные текстовые нейросети: от теории к практике<br />Начало 2025 года ознаменовалось динамичным развитием технологий искусственного интеллекта, где ключевую роль играют крупные языковые модели. Китайская компания DeepSeek бросила вызов лидерам рынка, представив бесплатный чат-бот с открытым исходным кодом, что спровоцировало снижение акций NVIDIA на 10% и заставило Кремниевую долину пересмотреть свои стратегии[1]. Этот прорыв демонстрирует, как новые подходы к обучению моделей и оптимизации вычислительных ресурсов трансформируют индустрию ИИ.<br />## Основные понятия: нейросети и токенизация<br />Искусственные нейронные сети имитируют работу человеческого мозга, используя многослойные структуры взаимосвязанных &quot;нейронов&quot; для обработки информации. В контексте языковых моделей это проявляется в способности анализировать и генерировать текст, выявляя сложные закономерности в данных[1].<br />**Токенизация** представляет собой процесс разбиения текста на смысловые единицы. Например, предложение &quot;ИИ меняет мир&quot; распадается на три токена: [&quot;ИИ&quot;, &quot;меняет&quot;, &quot;мир&quot;]. Современные языковые модели оперируют контекстными окнами от 4 тыс. до 1 млн токенов, что определяет их способность &quot;запоминать&quot; предыдущие взаимодействия[1].<br />## Ведущие языковые модели<br />### OpenAI ChatGPT<br />Пионер в области языковых моделей, представивший GPT-4 и ChatGPT-5, поддерживающие до 128 тыс. токенов контекста. Универсальность позволяет использовать их как для создания художественных текстов, так и для анализа юридических документов[1]. Коммерческое API стоит $0.03 за 1 тыс. токенов ввода и требует строгой модерации контента.<br />**Автомобильный аналог**: Mercedes-Benz. **Слоган**: &quot;Лучшее или ничего&quot;.<br />**Ссылка**: <a href=\"https://chat.openai.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">chat.openai.com/</span><span class=\"invisible\"></span></a><br />### DeepSeek-V3<br />Китайская разработка с открытым исходным кодом, потрясшая рынок технологических компаний. Использует инновационные методы обучения, сокращая бюджет разработки до $6 млн по сравнению с многомиллиардными затратами конкурентов[1]. Бесплатный доступ через приложение R1 с контекстным окном 32 тыс. токенов делает её популярной среди исследователей.<br />**Автомобильный аналог**: Tesla. **Слоган**: &quot;Ускоряя переход к устойчивой энергетике&quot;.<br />**Ссылка**: <a href=\"https://chat.deepseek.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">chat.deepseek.com/</span><span class=\"invisible\"></span></a><br />### Anthropic Claude 3<br />Разработка, ориентированная на анализ длинных текстов с рекордным контекстом в 1 млн токенов. Оптимальна для работы с технической документацией, однако стоимость API достигает $0.25 за 1 тыс. выходных токенов. Отличается строгими этическими фильтрами контента[2].<br />**Автомобильный аналог**: Volvo. **Слоган**: &quot;For life&quot;.<br />**Ссылка**: <a href=\"https://www.anthropic.com/claude\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://www.</span><span class=\"\">anthropic.com/claude</span><span class=\"invisible\"></span></a><br />### Qwen2.5<br />Совместный проект Alibaba и китайских исследовательских институтов. Поддерживает 64 тыс. токенов и ориентирован на мультиязычность, демонстрируя лучшие результаты для азиатских языков[3]. Бесплатная версия доступна через облачный сервис Aliyun.<br />**Автомобильный аналог**: Toyota. **Слоган**: &quot;Let&#39;s Go Places&quot;.<br />**Ссылка**: <a href=\"https://qianwen.aliyun.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">qianwen.aliyun.com/</span><span class=\"invisible\"></span></a><br />## Сравнительный анализ моделей<br />**Глубина анализа**:<br />- ChatGPT: 9/10 (универсальность)<br />- DeepSeek: 8.5/10 (исследовательская направленность)<br />- Claude 3: 9.5/10 (работа с длинными текстами)<br />- Qwen2.5: 8/10 (мультиязычность)<br />**Экономическая эффективность**:<br />- DeepSeek R1: бесплатно (32k токенов)<br />- ChatGPT Plus: $20/мес (128k токенов)<br />- Claude Team: $30/мес (1M токенов)<br />- Qwen2.5: бесплатно через Aliyun (64k токенов)<br />**Ограничения**:<br />- Политическая цензура у китайских моделей<br />- Высокие требования к оборудованию для локального запуска<br />- Возможные задержки ответа в облачных решениях при высокой нагрузке<br />## Будущее индустрии<br />Падение акций NVIDIA на 10% после выхода DeepSeek свидетельствует о переходе фокуса с аппаратных мощностей на алгоритмическую эффективность. По прогнозам Citi, к 2026 году 70% задач обработки естественного языка будут выполняться моделями с открытым исходным кодом[3].<br />Развитие локальных решений создаёт новый рынок &quot;персонализированных ИИ&quot;, где пользователи смогут обучать модели под свои нужды без зависимости от облачных платформ. Это особенно важно для малого бизнеса и независимых исследователей[4].<br />## Локальные нейросети: установка и настройка<br />Платформа **Ollama** делает запуск ИИ-моделей доступным для персональных компьютеров. Требования:<br />- Видеокарта с 8+ ГБ памяти (RTX 2070/4060)<br />- 16 ГБ оперативной памяти<br />- Поддержка CUDA (NVIDIA) или ROCm (AMD)<br />Установка через терминал:<br />```bash<br />curl -fsSL <a href=\"https://ollama.ai/install.sh\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">ollama.ai/install.sh</span><span class=\"invisible\"></span></a> | sh<br />ollama run llama3<br />```<br />Этот код запускает модель LLaMA 3 с контекстом 8 тыс. токенов. Пользователи отмечают удобную интеграцию с Python-библиотеками для создания кастомных решений, хотя возможны трудности с мультиязычными ответами[6].<br />**Автомобильный аналог**: Jeep. **Слоган**: &quot;Go Anywhere, Do Anything&quot;.<br />**Ссылка**: <a href=\"https://ollama.ai/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">ollama.ai/</span><span class=\"invisible\"></span></a><br />## Заключение<br />Выбор языковой модели зависит от конкретных задач: DeepSeek предлагает лучшую стоимость для академических исследований, ChatGPT остаётся лидером в универсальности, Claude 3 выделяется обработкой длинных текстов, а Qwen2.5 выигрывает в мультиязычности[5]. С развитием технологий токенизация и оптимизация вычислений продолжат играть ключевую роль в удешевлении и ускорении обработки данных.<br />### Хэштеги:<br /><a href=\"https://qoto.org/tags/AI\" class=\"mention hashtag\" rel=\"tag\">#<span>AI</span></a> <a href=\"https://qoto.org/tags/MachineLearning\" class=\"mention hashtag\" rel=\"tag\">#<span>MachineLearning</span></a> <a href=\"https://qoto.org/tags/NeuralNetworks\" class=\"mention hashtag\" rel=\"tag\">#<span>NeuralNetworks</span></a> <a href=\"https://qoto.org/tags/DeepLearning\" class=\"mention hashtag\" rel=\"tag\">#<span>DeepLearning</span></a> <a href=\"https://qoto.org/tags/NLP\" class=\"mention hashtag\" rel=\"tag\">#<span>NLP</span></a> <a href=\"https://qoto.org/tags/LLM\" class=\"mention hashtag\" rel=\"tag\">#<span>LLM</span></a> <a href=\"https://qoto.org/tags/ChatGPT\" class=\"mention hashtag\" rel=\"tag\">#<span>ChatGPT</span></a> <a href=\"https://qoto.org/tags/ClaudeAI\" class=\"mention hashtag\" rel=\"tag\">#<span>ClaudeAI</span></a> <a href=\"https://qoto.org/tags/DeepSeek\" class=\"mention hashtag\" rel=\"tag\">#<span>DeepSeek</span></a> <a href=\"https://qoto.org/tags/Qwen\" class=\"mention hashtag\" rel=\"tag\">#<span>Qwen</span></a> <a href=\"https://qoto.org/tags/Ollama\" class=\"mention hashtag\" rel=\"tag\">#<span>Ollama</span></a> <a href=\"https://qoto.org/tags/Tokenization\" class=\"mention hashtag\" rel=\"tag\">#<span>Tokenization</span></a> <a href=\"https://qoto.org/tags/OpenSourceAI\" class=\"mention hashtag\" rel=\"tag\">#<span>OpenSourceAI</span></a> <a href=\"https://qoto.org/tags/TechTrends\" class=\"mention hashtag\" rel=\"tag\">#<span>TechTrends</span></a> <a href=\"https://qoto.org/tags/AIResearch\" class=\"mention hashtag\" rel=\"tag\">#<span>AIResearch</span></a> <a href=\"https://qoto.org/tags/AIModels\" class=\"mention hashtag\" rel=\"tag\">#<span>AIModels</span></a> <a href=\"https://qoto.org/tags/AIInnovation\" class=\"mention hashtag\" rel=\"tag\">#<span>AIInnovation</span></a><br />### Литература:<br />1. Bengio Y., Goodfellow I., Courville A. *Deep Learning*. MIT Press, 2016.<br />2. Vaswani A. et al. *Attention is All You Need*. NeurIPS, 2017.<br />3. Brown T. et al. *Language Models are Few-Shot Learners*. NeurIPS, 2020.<br />4. OpenAI Research. *Scaling Laws for Neural Language Models*, 2020.<br />5. Hestness J. et al. *Deep Learning Scaling is Predictable, Empirically*. arXiv:1712.00409, 2017.<br />6. Radford A. et al. *Improving Language Understanding by Generative Pre-Training*. OpenAI, 2018.<br />7. DeepSeek AI. *Technical Report on DeepSeek-V3*, 2025.<br />8. Anthropic AI. *Claude Model Architecture and Capabilities*, 2024.<br />9. Alibaba Cloud Research. *Qwen Model Overview*, 2024.<br />10. NVIDIA AI Labs. *Future of AI Hardware and Optimization*, 2024.<br />11. Citigroup AI Analysis. *Market Trends in LLM Development*, 2025.<br />12. Stanford NLP Group. *Comprehensive Guide to Tokenization*, 2023.</p><p><a href=\"https://bastyon.com/post?s=47273c436dce8b15495f4d1464b26e787967cdf03ace2adf285c579f24f09cf3&amp;ref=PMC55eKCrsxoJNkiB3f71AgFLQC3T9HkWV\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"ellipsis\">bastyon.com/post?s=47273c436dc</span><span class=\"invisible\">e8b15495f4d1464b26e787967cdf03ace2adf285c579f24f09cf3&amp;ref=PMC55eKCrsxoJNkiB3f71AgFLQC3T9HkWV</span></a></p>", "contentMap": { "ru": "<p>### Современные текстовые нейросети: от теории к практике<br />Начало 2025 года ознаменовалось динамичным развитием технологий искусственного интеллекта, где ключевую роль играют крупные языковые модели. Китайская компания DeepSeek бросила вызов лидерам рынка, представив бесплатный чат-бот с открытым исходным кодом, что спровоцировало снижение акций NVIDIA на 10% и заставило Кремниевую долину пересмотреть свои стратегии[1]. Этот прорыв демонстрирует, как новые подходы к обучению моделей и оптимизации вычислительных ресурсов трансформируют индустрию ИИ.<br />## Основные понятия: нейросети и токенизация<br />Искусственные нейронные сети имитируют работу человеческого мозга, используя многослойные структуры взаимосвязанных &quot;нейронов&quot; для обработки информации. В контексте языковых моделей это проявляется в способности анализировать и генерировать текст, выявляя сложные закономерности в данных[1].<br />**Токенизация** представляет собой процесс разбиения текста на смысловые единицы. Например, предложение &quot;ИИ меняет мир&quot; распадается на три токена: [&quot;ИИ&quot;, &quot;меняет&quot;, &quot;мир&quot;]. Современные языковые модели оперируют контекстными окнами от 4 тыс. до 1 млн токенов, что определяет их способность &quot;запоминать&quot; предыдущие взаимодействия[1].<br />## Ведущие языковые модели<br />### OpenAI ChatGPT<br />Пионер в области языковых моделей, представивший GPT-4 и ChatGPT-5, поддерживающие до 128 тыс. токенов контекста. Универсальность позволяет использовать их как для создания художественных текстов, так и для анализа юридических документов[1]. Коммерческое API стоит $0.03 за 1 тыс. токенов ввода и требует строгой модерации контента.<br />**Автомобильный аналог**: Mercedes-Benz. **Слоган**: &quot;Лучшее или ничего&quot;.<br />**Ссылка**: <a href=\"https://chat.openai.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">chat.openai.com/</span><span class=\"invisible\"></span></a><br />### DeepSeek-V3<br />Китайская разработка с открытым исходным кодом, потрясшая рынок технологических компаний. Использует инновационные методы обучения, сокращая бюджет разработки до $6 млн по сравнению с многомиллиардными затратами конкурентов[1]. Бесплатный доступ через приложение R1 с контекстным окном 32 тыс. токенов делает её популярной среди исследователей.<br />**Автомобильный аналог**: Tesla. **Слоган**: &quot;Ускоряя переход к устойчивой энергетике&quot;.<br />**Ссылка**: <a href=\"https://chat.deepseek.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">chat.deepseek.com/</span><span class=\"invisible\"></span></a><br />### Anthropic Claude 3<br />Разработка, ориентированная на анализ длинных текстов с рекордным контекстом в 1 млн токенов. Оптимальна для работы с технической документацией, однако стоимость API достигает $0.25 за 1 тыс. выходных токенов. Отличается строгими этическими фильтрами контента[2].<br />**Автомобильный аналог**: Volvo. **Слоган**: &quot;For life&quot;.<br />**Ссылка**: <a href=\"https://www.anthropic.com/claude\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://www.</span><span class=\"\">anthropic.com/claude</span><span class=\"invisible\"></span></a><br />### Qwen2.5<br />Совместный проект Alibaba и китайских исследовательских институтов. Поддерживает 64 тыс. токенов и ориентирован на мультиязычность, демонстрируя лучшие результаты для азиатских языков[3]. Бесплатная версия доступна через облачный сервис Aliyun.<br />**Автомобильный аналог**: Toyota. **Слоган**: &quot;Let&#39;s Go Places&quot;.<br />**Ссылка**: <a href=\"https://qianwen.aliyun.com/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">qianwen.aliyun.com/</span><span class=\"invisible\"></span></a><br />## Сравнительный анализ моделей<br />**Глубина анализа**:<br />- ChatGPT: 9/10 (универсальность)<br />- DeepSeek: 8.5/10 (исследовательская направленность)<br />- Claude 3: 9.5/10 (работа с длинными текстами)<br />- Qwen2.5: 8/10 (мультиязычность)<br />**Экономическая эффективность**:<br />- DeepSeek R1: бесплатно (32k токенов)<br />- ChatGPT Plus: $20/мес (128k токенов)<br />- Claude Team: $30/мес (1M токенов)<br />- Qwen2.5: бесплатно через Aliyun (64k токенов)<br />**Ограничения**:<br />- Политическая цензура у китайских моделей<br />- Высокие требования к оборудованию для локального запуска<br />- Возможные задержки ответа в облачных решениях при высокой нагрузке<br />## Будущее индустрии<br />Падение акций NVIDIA на 10% после выхода DeepSeek свидетельствует о переходе фокуса с аппаратных мощностей на алгоритмическую эффективность. По прогнозам Citi, к 2026 году 70% задач обработки естественного языка будут выполняться моделями с открытым исходным кодом[3].<br />Развитие локальных решений создаёт новый рынок &quot;персонализированных ИИ&quot;, где пользователи смогут обучать модели под свои нужды без зависимости от облачных платформ. Это особенно важно для малого бизнеса и независимых исследователей[4].<br />## Локальные нейросети: установка и настройка<br />Платформа **Ollama** делает запуск ИИ-моделей доступным для персональных компьютеров. Требования:<br />- Видеокарта с 8+ ГБ памяти (RTX 2070/4060)<br />- 16 ГБ оперативной памяти<br />- Поддержка CUDA (NVIDIA) или ROCm (AMD)<br />Установка через терминал:<br />```bash<br />curl -fsSL <a href=\"https://ollama.ai/install.sh\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">ollama.ai/install.sh</span><span class=\"invisible\"></span></a> | sh<br />ollama run llama3<br />```<br />Этот код запускает модель LLaMA 3 с контекстом 8 тыс. токенов. Пользователи отмечают удобную интеграцию с Python-библиотеками для создания кастомных решений, хотя возможны трудности с мультиязычными ответами[6].<br />**Автомобильный аналог**: Jeep. **Слоган**: &quot;Go Anywhere, Do Anything&quot;.<br />**Ссылка**: <a href=\"https://ollama.ai/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"\">ollama.ai/</span><span class=\"invisible\"></span></a><br />## Заключение<br />Выбор языковой модели зависит от конкретных задач: DeepSeek предлагает лучшую стоимость для академических исследований, ChatGPT остаётся лидером в универсальности, Claude 3 выделяется обработкой длинных текстов, а Qwen2.5 выигрывает в мультиязычности[5]. С развитием технологий токенизация и оптимизация вычислений продолжат играть ключевую роль в удешевлении и ускорении обработки данных.<br />### Хэштеги:<br /><a href=\"https://qoto.org/tags/AI\" class=\"mention hashtag\" rel=\"tag\">#<span>AI</span></a> <a href=\"https://qoto.org/tags/MachineLearning\" class=\"mention hashtag\" rel=\"tag\">#<span>MachineLearning</span></a> <a href=\"https://qoto.org/tags/NeuralNetworks\" class=\"mention hashtag\" rel=\"tag\">#<span>NeuralNetworks</span></a> <a href=\"https://qoto.org/tags/DeepLearning\" class=\"mention hashtag\" rel=\"tag\">#<span>DeepLearning</span></a> <a href=\"https://qoto.org/tags/NLP\" class=\"mention hashtag\" rel=\"tag\">#<span>NLP</span></a> <a href=\"https://qoto.org/tags/LLM\" class=\"mention hashtag\" rel=\"tag\">#<span>LLM</span></a> <a href=\"https://qoto.org/tags/ChatGPT\" class=\"mention hashtag\" rel=\"tag\">#<span>ChatGPT</span></a> <a href=\"https://qoto.org/tags/ClaudeAI\" class=\"mention hashtag\" rel=\"tag\">#<span>ClaudeAI</span></a> <a href=\"https://qoto.org/tags/DeepSeek\" class=\"mention hashtag\" rel=\"tag\">#<span>DeepSeek</span></a> <a href=\"https://qoto.org/tags/Qwen\" class=\"mention hashtag\" rel=\"tag\">#<span>Qwen</span></a> <a href=\"https://qoto.org/tags/Ollama\" class=\"mention hashtag\" rel=\"tag\">#<span>Ollama</span></a> <a href=\"https://qoto.org/tags/Tokenization\" class=\"mention hashtag\" rel=\"tag\">#<span>Tokenization</span></a> <a href=\"https://qoto.org/tags/OpenSourceAI\" class=\"mention hashtag\" rel=\"tag\">#<span>OpenSourceAI</span></a> <a href=\"https://qoto.org/tags/TechTrends\" class=\"mention hashtag\" rel=\"tag\">#<span>TechTrends</span></a> <a href=\"https://qoto.org/tags/AIResearch\" class=\"mention hashtag\" rel=\"tag\">#<span>AIResearch</span></a> <a href=\"https://qoto.org/tags/AIModels\" class=\"mention hashtag\" rel=\"tag\">#<span>AIModels</span></a> <a href=\"https://qoto.org/tags/AIInnovation\" class=\"mention hashtag\" rel=\"tag\">#<span>AIInnovation</span></a><br />### Литература:<br />1. Bengio Y., Goodfellow I., Courville A. *Deep Learning*. MIT Press, 2016.<br />2. Vaswani A. et al. *Attention is All You Need*. NeurIPS, 2017.<br />3. Brown T. et al. *Language Models are Few-Shot Learners*. NeurIPS, 2020.<br />4. OpenAI Research. *Scaling Laws for Neural Language Models*, 2020.<br />5. Hestness J. et al. *Deep Learning Scaling is Predictable, Empirically*. arXiv:1712.00409, 2017.<br />6. Radford A. et al. *Improving Language Understanding by Generative Pre-Training*. OpenAI, 2018.<br />7. DeepSeek AI. *Technical Report on DeepSeek-V3*, 2025.<br />8. Anthropic AI. *Claude Model Architecture and Capabilities*, 2024.<br />9. Alibaba Cloud Research. *Qwen Model Overview*, 2024.<br />10. NVIDIA AI Labs. *Future of AI Hardware and Optimization*, 2024.<br />11. Citigroup AI Analysis. *Market Trends in LLM Development*, 2025.<br />12. Stanford NLP Group. *Comprehensive Guide to Tokenization*, 2023.</p><p><a href=\"https://bastyon.com/post?s=47273c436dce8b15495f4d1464b26e787967cdf03ace2adf285c579f24f09cf3&amp;ref=PMC55eKCrsxoJNkiB3f71AgFLQC3T9HkWV\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><span class=\"invisible\">https://</span><span class=\"ellipsis\">bastyon.com/post?s=47273c436dc</span><span class=\"invisible\">e8b15495f4d1464b26e787967cdf03ace2adf285c579f24f09cf3&amp;ref=PMC55eKCrsxoJNkiB3f71AgFLQC3T9HkWV</span></a></p>" }, "attachment": [], "tag": [ { "type": "Hashtag", "href": "https://qoto.org/tags/ai", "name": "#ai" }, { "type": "Hashtag", "href": "https://qoto.org/tags/machinelearning", "name": "#machinelearning" }, { "type": "Hashtag", "href": "https://qoto.org/tags/neuralnetworks", "name": "#neuralnetworks" }, { "type": "Hashtag", "href": "https://qoto.org/tags/deeplearning", "name": "#deeplearning" }, { "type": "Hashtag", "href": "https://qoto.org/tags/nlp", "name": "#nlp" }, { "type": "Hashtag", "href": "https://qoto.org/tags/llm", "name": "#llm" }, { "type": "Hashtag", "href": "https://qoto.org/tags/chatgpt", "name": "#chatgpt" }, { "type": "Hashtag", "href": "https://qoto.org/tags/claudeai", "name": "#claudeai" }, { "type": "Hashtag", "href": "https://qoto.org/tags/deepseek", "name": "#deepseek" }, { "type": "Hashtag", "href": "https://qoto.org/tags/qwen", "name": "#qwen" }, { "type": "Hashtag", "href": "https://qoto.org/tags/ollama", "name": "#ollama" }, { "type": "Hashtag", "href": "https://qoto.org/tags/tokenization", "name": "#tokenization" }, { "type": "Hashtag", "href": "https://qoto.org/tags/opensourceai", "name": "#opensourceai" }, { "type": "Hashtag", "href": "https://qoto.org/tags/techtrends", "name": "#techtrends" }, { "type": "Hashtag", "href": "https://qoto.org/tags/airesearch", "name": "#airesearch" }, { "type": "Hashtag", "href": "https://qoto.org/tags/aimodels", "name": "#aimodels" }, { "type": "Hashtag", "href": "https://qoto.org/tags/AIInnovation", "name": "#AIInnovation" } ], "replies": { "id": "https://qoto.org/users/InterNews112/statuses/114128496928867472/replies", "type": "Collection", "first": { "type": "CollectionPage", "next": "https://qoto.org/users/InterNews112/statuses/114128496928867472/replies?only_other_accounts=true&page=true", "partOf": "https://qoto.org/users/InterNews112/statuses/114128496928867472/replies", "items": [] } } }