ニューチャレンジ選考過程

 テーマの選抜は、会場でのアンケート結果に基づきました。 アンケートは、

  1. Q1: 5年でできるか?
  2. Q2: 社会貢献になるか?
  3. Q3: AIへの貢献になるか?
の3問からなり、各5段階評価して回答してもらうものです。

プログラム委員会では、上記、アンケート結果を受け、
7テーマの内、「インタラクション設計言語Qの提案(NEW2-3)]、 「大規模災害救助シミュレータを対象としたリアルタイム実況の自動生成 (NEW1-2)]、および「日常言語コンピューテイング---言語現象の社会的、 機能的メカニズムの解明と日常言語オペレーテイングの実現に向けて (NEW2-2)」の3テーマは、設問の全平均が3.80以上と、他に比べて高い評 価を得ました.聴講者の数は、初めてのためかサバイバルのセッションに比 べて必ずしも大勢とはいえませんが、いずれも20名以上(特にNEW1-2は30 名以上)でした。また内容に関してはそれぞれエージェントとのインタラ クション、災害救助のリアルタイム実況、日常言語のオペレーテイングと いう興味深いものです。
以上により、NEW2-3、NEW1-2およびNEW2-3の3テーマを選びました。参考 までにサババルオブチャレンジのテーマも含めた上位6件の評価を表1に示 します。

表1   近未来チャレンジの評価結果
==============================================================
 順位  タイトル Q1 (回答数)  Q2 (回答数)  Q3 (回答数) 全平均
--------------------------------------------------------------
  1    RCT      4.03 (36)    4.50 (36)    3.81 (35)   4.12
  2    DSIU     3.92 (37)    3.97 (38)    3.79 (38)   3.89
  3    NEW2-3   3.91 (23)    3.86 (21)    3.86 (22)   3.88
  4    NEW1-2   3.31 (32)    4.28 (32)    3.91 (32)   3.83
  5    NEW2-2   2.85 (24)    4.25 (24)    4.35 (24)   3.82

  6    POC      3.96 (27)    3.50 (27)    3.61 (27)   3.69
==============================================================
 全(荷重)平均 = 
  (q1 * [Q1の回答数] + q2 * [Q2の回答数]+ q3 * [Q3の回答数] )
   / ([Q1の回答数] + [Q2の回答数] + [Q3の回答数])
     注.   qi = 設問Qiに対する評価の加重平均


近未来チャレンジのホームページへ