Data to Ponta ~あまったデータをポイントへ~|基本料ゼロから始めるau回線のスマホプラン【公式】povo2.0
@povo_official 【「Data to Ponta」期間に期限を迎えないデータも、ポイント還元の対象になる❓】 なります🙆 「データ追加60GB(90日間)」か「データ追加150GB(180日間)」をご購入いただければ、期間中にデータ期限が切れていなくても、Pontaポイントは還元されます✨ ➡ #povo #povoQA
GitHub - microsoft/torchscale: Transformers at any scale
@omarsar0 🐙TorchScale - A Library for Transformers at (Any) Scale TorchScale is a PyTorch library to scale up Transformers efficiently and effectively. Something worth checking out if you are working on scaling Transformer models.

@omarsar0 🐙TorchScale - A Library for Transformers at (Any) Scale TorchScale is a PyTorch library to scale up Transformers efficiently and effectively. Something to pay close attention to if you are working on scaling Transformer models.
CLIP Interrogator 2 - a Hugging Face Space by fffiloni
@technollama But to see how good CLIP models have gotten, you can test it in the opposite direction. Give it an image and see how it describes it. You can use CLIP Interrogator for that.
Use BigQuery with Google Earth Engine to power your geospatial analysis | G...
@GoogleCloudTech #DYK? Google Earth Engine (GEE) is GA for commercial use. Read this to learn a method to utilize GEE from within #BigQuery’s SQL, which allows SQL speakers to get access to and value from the vast troves of data available within Earth Engine ↓
An Interpretable Deep Classifier for Counterfactual Generation | Proceeding...
@hayashiyus ①生成モデルの潜在空間上で線形分類器の学習を行なって識別境界を引く ②識別境界をまたいで潜在変数を動かす操作を反実仮想と対応させる 生成モデルの潜在空間をありえた可能世界とみなして潜在変数に対する操作を反実仮想と結びつける論文

@hayashiyus An Interpretable Deep Classifier for Counterfactual Generation この論文,とても面白いんだけど,教師あり学習で潜在空間を学習している時点でi.i.dを仮定していて,エージェントの行動によって環境の分布が変化する強化学習的な問題には拡張が必要だと思う
Gradient Descent: The Ultimate Optimizer | OpenReview
@hillbig HyperSGDは最適化法のハイパーパラメータ(学習率、モーメンタム等)を自動微分で求めた勾配で最適化する。更新時にいくつかdetachするだけで可能で、性能は手動最適化に匹敵。新たにできるハイパーパラメータも再度最適化でき、初期設定への感度は低くできる。

@hillbig HyperSGD optimizes the optimizer's hyperparameters (lr, momentum, etc.) using automatic differentiation and gradient descent. We can recursively apply this to new hyperparameters, and they become less sensitive to the initial choice of hyperparameters.
Your ultimate AI/ML decision tree | Google Cloud Blog
@GoogleCloudTech Product managers, data scientists, and #ML engineers: Check out this guide to picking your #AI / #ML path on Google Cloud ↓
NeurIPS Workshop 2022
@JaviAC7 Very excited to be at NeurIPS this upcoming week and especially for the @ICBINBWorkshop workshop on Understanding Deep Learning through Empirical Falsification! ( Reach out if you want to talk about Bayesian NNs, Gaussian processes or anything ML related!
【マケデコ】JPX Kaggleコンペ: 前回コンペ1位/2位解法共有(mochizuki/UKI) - YouTube
@cryptoo_bear これ拝見したんだけどめっちゃ勉強になりました。catboostに不確実性の予測もできる方法あるのとか知らなかった。(ngboostは知ってたけど死ぬほど遅いらしくて使ったことなかった) UKIさんmochizukiさんが過去にされたsignateの解法共有と併せて見るのがオススメかも😇
[2211.13998] Deep-neural-network solution of the ab initio nuclear structur...
@tjmlab Deep-neural-network solution of the ab initio nuclear structure 「核構造に対する新しい深層学習変分量子モンテカルロ アプローチである FeynmanNet を開発」 ファインマンネット、かっこええ・・・
【スペースシフト】衛星データ自動解析AI開発 Supported By 株式会社リクルート - connpass
@wakame1367 conpassの開催期間が長期間に渡っているため、その間のイベント参加していると登録できなくて困った。
Sketch Guidance
@_akhaliq Sketch-Guided Text-to-Image Diffusion Models abs: project page:

@Yamkaz 手描きのスケッチから画像生成 スケッチをガイドとして使用した、より自然な画像を生成するテキストから画像への合成の新しいアプローチが発表
Pythonの可視化ライブラリを使いこなそう | LAC WATCH
@lac_security プログラミング言語「Python」は広く使われており、AIモデルの構築やデータ分析のためのライブラリが豊富です。今回は、その中でもPythonの可視化ライブラリについて、4種類のライブラリを比較しながら紹介します。 #株式会社ラック #Python
@_akhaliq 3DDesigner: Towards Photorealistic 3D Object Generation and Editing with Text-guided Diffusion Models abs: project page:
[2211.13408] Graph Contrastive Learning for Materials
@tjmlab Graph Contrastive Learning for Materials 「最近の研究では、グラフ ニューラル ネットワークが材料特性を効率的に予測し、材料のハイスループット スクリーニングを可能にする可能性が示されています」、そうにゃんや。GNNやらんとあかんのか?
@_akhaliq SpaText: Spatio-Textual Representation for Controllable Image Generation abs: project page:

@Yamkaz 生成画像の形状やレイアウトをよりきめ細かく制御できるText2imageのための新しい手法「SpaText」が公開!
Prompt Converter - a Hugging Face Space by fffiloni
@fffiloni I found that @MasterScrat’s idea was a good one, so i built it: A @gradio demo on @huggingface that allows you to convert a v1.x stable diffusion prompt to a v2.x stable diffusion equivalent prompt for use in #StableDiffusion2
【画像付き】ファネル分析とは?活用すべきケースや活用例をわかりやすく解説 | LISKUL
@liskulcom ファネル分析はWebマーケティングで利用される分析手法の1つで、購買ファネルごとのユーザー数を把握する上で便利なフレームワークです。そこで本記事では、ファネル分析の種類や活用事例について解説します。 #ファネル分析
[2211.09102] Prompting PaLM for Translation: Assessing Strategies and Perfo...
@srchvrs "Using optimized prompts we revisit previous assessments of PaLM's MT capabilities with more recent test sets, modern MT metrics, and human evaluation, and find that its performance, while impressive, still lags that of state-of-the-art supervised systems"
LookinGlassRGBD - a Hugging Face Space by Sentdex
@Sentdex 2/5🧵Heavily inspired by @TomLikesRobots: I’ve hosted the RGBD creation as a @huggingface space: You can just upload any image, and an RGBD image will be created for display on the LookingGlass.
[2209.09441] Locally Constrained Representations in Reinforcement Learning
@hrs1985 強化学習でrepresentationの獲得に関する学習とvalueやpolicyの学習を分離する話。前後の状態から得られる表現と現在の状態から得られる表現を近づけるようにする。RNDと相性が良さそうな気がするけどどうだろう。
指数分布(exponential distribution)のモーメント母関数の収束半径 - あつまれ統計の森
@arts_lib 統計検定準1級ワークブックの演習2-3に関連して、指数分布のモーメント母関数の収束半径の考察を行いました〜 唐突にモーメント母関数の定義域が出てきましたが、収束半径を元に考えるとわかりやすいのではないかと思います🌿
[2211.12714] Developmental Plasticity-inspired Adaptive Pruning for Deep Sp...
@bioshok3 脳のような適応的刈り込み戦略を採用して冗長なシナプスとニューロンを徐々に「学習しながら」排除していくDPAP法を提案。 DNNやSNN(スパイキングニューラルネットワーク)で性能や学習収束速度を改善。発達可塑性刈り込みモデルで、優れた性能もたらした初めての成果。
Exploring Neural Graphics Primitives – Max Slater – Computer Graphics, Prog...
@The_Numbat Two SIGGRAPH best papers covered neural graphics primitives: networks that encode signals like images, surfaces, and light fields. Neural fields help integrate graphics into ML pipelines—but training them requires specialized architectures. Let's explore:
GitHub - huggingface/diffusion-models-class: Materials for the Hugging Face...
@_lewtun Together with @johnowhitaker, we've just released Unit 1 of the Diffusion Models Class 🧨 In this unit, you'll learn all about 🤗 Diffusers and get to train a diffusion model *from scratch* for unconditional image generation 🦋 Check it out here 👉: 1/2
information-geometry/infogeo01.ipynb at master · QUANTA-github/information-...
@hayashiyus 2021年に物故された田中勝先生 @QUANTA_in_Math のPythonで学ぶ情報幾何入門ノートブック01をみている.続きが読みたかった.
Kandinsky2.0 - a Hugging Face Space by AlexWortega
@_akhaliq The @Gradio demo for Kandinsky 2.0 is out on @huggingface Spaces demo:
plasmo/vox2 · Hugging Face
@_akhaliq Jak's Voxel-ish Image Pack v.1.2 dreambooth model by @plasm0 @Gradio demo: @huggingface model:
Vox2 - a Hugging Face Space by akhaliq
@_akhaliq Jak's Voxel-ish Image Pack v.1.2 dreambooth model by @plasm0 @Gradio demo: @huggingface model:
Stable Diffusion with Hugging Face Inference Endpoints
@_philschmid 🎯 Goal: Easily Deploy Stable Diffusion models ✏️ Content: Deploy Stable Diffusion to 🤗 Inference Endpoints ✅ Result: Secure & Dedicated Stable Diffusion 2.0 API to generate images quickly 📔Blog:
[Whisper Fine Tuning Event] Talks: Whisper & VoxPopuli - YouTube
@reach_vb Monday just got a whole lot more interesting! ⚡️ We're excited to announce 2 talks as part of the upcoming Whisper Fine Tuning Event. 🤗 1. @OpenAI's @_jongwook_kim on the Whisper architecture. 2. @MetaAI's @ChanghanWang on the VoxPopuli dataset.
CVPR 2023
@CVPR When someone tweets your paper and you are tempted to like but can’t 🤓
Understanding Figurative Language with AI models | AI2 Blog
@allen_ai Figurative or metaphorical language can be difficult to understand—especially for an AI language model. With DREAM and DREAM-FLUTE, @gu_yuling, Bhavana Dalvi Mishra and collaborators explore ML "mental models" for figurative language:
[2207.04978] Wave-ViT: Unifying Wavelet and Transformers for Visual Represe...
@AkiraTOSEI トランスフォーマーの計算量削減において、KとVを平均プーリングでダウンサンプリングさせるという手法がある。そこにWavelet変換を適用することで従来手法よりも情報のロスが少ないまま計算量が削減できるとのこきるという研究。
How Hugging Face improved Text Generation performance with XLA — The Tensor...
@TensorFlow 🤗The @huggingface team brings you the power of XLA in the form of fast and powerful text generation models re-written in TensorFlow. Learn how they achieved a large speedup here ➡️
NeurIPS 2021 Workshop: Self-Supervised Learning - Theory and Practice
@FGAnniversaries On this day 9 years ago, the 20th anniversary website for the Virtua Fighter series was launched. It can be visited here:
All things neural distribution alignment | neuralign
@KordingLab Aligning latent representations of neural activity [Review] With @evadyer we ask how recordings across times, conditions or animals can be aligned. No supervised signals needed! Try the codes here:
Predicting FIFA 2022 World Cup with Machine Learning | by Sergio Pessoa | N...
@ogawa_yutaro_22 10日前のW杯開始頃の記事です W杯の勝敗、決勝トーナメントから優勝までをデータから予測した記事 W杯のような一発勝負は実際予想は難しいです またFIFAランクはありますがアジアと欧州の国などだと、実際年間を通しての直接対決の機会が少ない
GitHub - kach/gradient-descent-the-ultimate-optimizer: Code for our NeurIPS...
@arai01robo 最近の研究では、事前に「超勾配」の式を手動で導出するで、勾配降下法によってステップ サイズをオンラインで「学習」できることが示されていて、バックプロパゲーションを変更して、超勾配を自動計算する方法 Gradient Descent: The Ultimate Optimizer (NeurIPS 2022)
Optimizing Production PyTorch Models’ Performance with Graph Transformation...
@PyTorch PyTorch supports two execution modes: 1️⃣ eager mode: Operators are executed as they’re encountered (easier to use) 2️⃣ graph mode: Operators are synthesized into a graph then compiled/executed as a whole (improved performance) Learn more ⬇️

@PyTorch .@MetaAI Engineers have optimized production PyTorch models with graph transformations, using the publicly available torch.FX that results in significant increases in model training throughput: Read more about PyTorch support of two execution modes 🧵👇
第10回 Language and Robotics研究会 - connpass
@maguroIsland 第10回 Language and Robotics 研究会を公開しました! 今回は品川先生による、意図の接地と意味の接地についてのご発表になります 直近ではtxt2imの画像生成が一大ブームであり、様々な方にぶっ刺さる刺激的内容です こちらから登録 研究会
タクシーアプリ『GO』の施策検証、因果推論が解決します #mot_tech_talk | MoT Lab (Mobility Technologies...
@mot_techtalk 先日開催した「MoT TechTalk #14 タクシーアプリ『GO』の施策検証、因果推論が解決します」のレポートを公開しました。 AI技術開発部分析グループのデータアナリストがどのようにデータ分析を進め、意思決定の支援を行っているか、事例を交えて紹介しました。 #mot_tech_talk
Miguel Méndez | DVC + MMdetection
@OpenMMLab DVC + MMdetection:A guide to train, monitor, compare and evaluate your pytorch object detection models !from @mmeendez8 👨‍👨‍👧‍👧
Behind the Yahoo! JAPAN Top Page: Trial and Error of the Article Recommenda...
@yp_genzitsu Yahooのトップページにどのニュースを表示するかの推薦システムと改善の試行錯誤を紹介しているスライド 試行錯誤が勉強になる Behind the Yahoo! JAPAN Top Page: Trial and Error of the Article Recommendation System and Future Challenges