生成AIの導入は、研究開発のプロセスと技術戦略に大きな変革をもたらしつつある。特に大規模言語モデル (LLM) の進歩により、アルゴリズム実装、コード生成、デバッグ、リファクタリングといった作業が高速化し、研究者やエンジニアの生産性とR&D全体の進め方に質的変化が生じている。しかし、実際の現場では、必要な情報の整理不足や前提知識の不一致、説明の粒度のミスマッチ、誤った推測に基づくコード生成、長い指示や複雑な処理に対する破綻など、LLM特有の課題が依然として見られる。 本講演では、近年の研究動向を踏まえて整理した実践的アプローチを紹介する。COTによる問題分解、ICLによる条件付け、Test time computingの推論精度の向上、複数LLMの使い分けなど、LLMの特性に基づく方法を中心に、研究開発におけるコーディングを安定して進めるための具体的ポイントを示す。これらの手法を適切に用いることで、生成AIを活用したつまずかない研究開発を習得することを目標とする。