プログラミングにおける人工知能AIの爆発的な普及は、生産性の急増という新たなパラドックスを生み出していますが、それに伴い、人間の制御能力を超えるソースコードの「洪水」も発生しています。
ある金融サービス会社では、AIプログラミングツールCursorの導入により、コード生産量が月間25,000行から250,000行に増加しました。
しかし、これは約100万行のコードをレビューする必要があり、これは既存の検閲能力を超える膨大な量です。
StackHawk(アプリケーションセキュリティを専門とするテクノロジー企業)のCEOであるジョニ・クリップパート氏によると、コード量の急速な増加は、企業が追いつけないセキュリティリスクの増加を意味します。
この傾向は、OpenAI、Anthropic、またはCurserのAIツールが爆発的に普及して以来、顕著になっています。
エンジニアだけでなく、今ではどの従業員もわずか数時間でソフトウェアを作成できます。
それは革新を加速するのに役立ちますが、同時に「プログラミングコードの過負荷」の状態を引き起こします。
テクノロジー環境では、多くの従業員がこれを「新しい正常」と見なしています。AIは、コードを一行ずつ書くのではなく、アイデアに集中するのに役立ちます。しかし、負の側面は、エラーを検査、検出、および安全を確保するのに十分な能力を持つエンジニアの数が不足していることです。
企業は、特にアプリケーションセキュリティの専門家である上級エンジニアをますます求めています。
Googleの調査によると、開発者の90%が仕事でAIを使用しています。効率の急増は、AIが以前の仕事の大部分を置き換えることができるという理由で、多くの企業が人員削減を引き起こしています。
Metaのテクノロジーディレクターであるアンドリュー・ボスワース氏によると、かつて数百人のエンジニアが必要だったプロジェクトは、現在では数十人で完了できる。
それに伴い、AIエージェントの出現、つまりソフトウェアを自動的に記述できるシステムが、開発速度を前例のないレベルに押し上げています。
わずかな指示だけで、AIは短時間でプログラム全体を作成でき、生成されるコードの数が指数関数的に増加します。
しかし、問題は量だけにとどまりません。企業は、AIによって生成されたコードにエラーが発生した場合、誰が責任を負うのかという疑問に直面しています。
以前は、コードを記述するプログラマーがエラーを修正していました。現在、AIが製品の大部分を作成すると、責任の境界線は曖昧になります。
セキュリティリスクも予測不可能な方法で増加しています。多くのエンジニアは、AIツールを使用するために、すべてのソースコードを個人のコンピューターにダウンロードする必要があり、デバイスが紛失または攻撃された場合に、意図せずにデータ漏洩のリスクを生み出します。
オープンソース分野では、状況はさらに複雑です。一部のプロジェクトでは貢献量が急増していますが、その多くはAIによって生成されたコードであり、品質管理が不足しています。リスクを回避するために外部に閉鎖しなければならないプロジェクトさえあります。
対処するために、企業は再びAI自体に目を向けています。コードを自動的にチェックし、エラーを検出し、リスクの高い部分を優先するために、多くの新しいツールが開発されています。
それにもかかわらず、専門家は、これは大規模な移行の初期段階に過ぎないと指摘しています。
AIがプログラミング能力を向上させ続けるにつれて、課題はもはやより速くコードを書くことではなく、機械が生成する膨大な量のコードをどのように制御し、理解し、責任を負うかです。