トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Santiago
私はこれを明確にしたいと思います:
私の AI/ML エンジニアリング コホートに参加すると、将来のすべてのコホートにもアクセスできるようになります。
生涯アクセスなので、私がコホートを教えている限り、もうお金を払うことなく参加できます。
月々の支払いはありません。「アップグレード」や「アップセル」はありません。
それは簡単です:一度お金を払って参加すると、*すべて*に永久にアクセスできます。制限はありません。いつでも好きなときにクラスに出席する必要があります。
ちなみに、多くの学生がこれを行っています。
• ウォームアップのために 1 つのコホートに参加する
•次のコホートに参加してオールインします
• スーパーパワーを持つ第3のコホートに参加する
もちろん、これはオプションですが、柔軟性を求める人にとっては大きなことです。
私の次のコホートは 2 週間後 (8 月 4 日) に始まり、ml dot school に通うことで参加できます。
3.82K
このようにして、10倍少ない労力で10倍優れたコードを書くことができます。
カスタムの専門エージェントが、すべてのステップでコードをレビューします。
以前にも自動コードレビューは見たことがありますが、カスタムレビュー担当者エージェントを定義する機能はありませんでした。@baz_scmこれをやってのけた最初の人で、かなりクールです。
レビュー担当者エージェントには、次の 3 つのタイプがあります。
1.箱から出して出てくるもの。
これらのエージェントは、重複したコード、壊れたコード、複雑なコードなど、誰もがチェックしたい最も一般的なパターンをカバーしています。
2. Bazが自動的に作成する推奨レビュアーエージェント。
Baz は、レビュー履歴と過去のコメントを分析して気になるパターンを特定し、そのパターンをチェックする専門のエージェントを自動的に作成します。
たとえば、開発者に常にファイルを 100 行未満のコードに保つように依頼すると、Baz はそれを検出し、それをチェックするカスタム エージェントを作成します。
3. 定義するカスタムレビュー担当者エージェント。
これらは私のお気に入りです:ルールを説明するプロンプトを書くと、エージェントはルールに一致するものにフラグを立てるためにコードのチェックを開始します。
添付の動画で簡易レビュアーエージェントを作成しました。
正直なところ、この時点では、不良コードを出荷する言い訳はありません。
これらのカスタムレビュー担当者を試すためのリンクを次に示します。
この投稿に協力してくれた@baz_scmチームに感謝します。
31.44K
正直なところ、ほとんどのAI開発者はまだ前世紀にとらわれています。
エラー分析について知っている人がいかに少ないかに驚かされます。
これは、AIアプリケーションを評価するための*文字通り*最も速く、最も効果的な方法であり、ほとんどのチームはまだゴーストを追いかけています。
一般的なメトリクスの追跡を停止し、次の手順に従ってください。
1. 故障サンプルの収集
アプリケーションによって生成された応答のレビューを開始します。各回答、特に間違いだった回答についてメモを書きます。特定の方法でメモをフォーマットする必要はありません。応答の何が間違っていたのかを説明することに焦点を当てます。
2.メモを分類します
適切な回答のセットを確認したら、LLMを取り、メモの一般的なパターンを見つけるように依頼します。これらのパターンに基づいて各音符を分類するように依頼します。
あなたはあなたのアプリケーションが犯したすべてのタイプの間違いをカバーするカテゴリで終わるでしょう。
3.最も頻繁な間違いを診断する
まず、最も一般的なタイプの間違いに焦点を当てることから始めます。まれなミスで時間を無駄にしたくありません。
これらの誤ったサンプルにつながる会話、入力、ログを掘り下げます。問題の原因を理解してみてください。
4. 的を絞った修正を設計する
この時点で、前の手順で診断した間違いをできるだけ早く、そして安価に排除する方法を決定したいと考えています。
たとえば、プロンプトを微調整したり、検証ルールを追加したり、より多くのトレーニング データを検索したり、モデルを変更したりできます。
5. 評価プロセスの自動化
アプリケーションを通じて評価セットを再実行し、修正が効果的であったかどうかを評価する簡単なプロセスを実装する必要があります。
私の推奨事項は、LLM-as-a-Judgeを使用して、アプリケーションを通じてサンプルを実行し、PASS/FAILタグでそれらをスコアリングし、結果を計算することです。
6. メトリクスに注目する
エラー分析中に特定した各カテゴリは、経時的に追跡するメトリックです。
「関連性」、「正確性」、「完全性」、「一貫性」、およびその他のすぐに使える指標にこだわっても、どこにもたどり着けません。これらのことは忘れて、見つけた本当の問題に集中してください。

49.3K
トップ
ランキング
お気に入り
Trending onchain
Trending on X
Recent top fundings
Most notable