Почему у физического объекта нет интереса?

На данный момент обучения не было дано определения тому, что такое интерес. В связи с этим у меня возникает вопрос – почему в рамках системного мышления подразумевается, что у физического объекта его нет? В бытовом языке понятно, тут - нет.

Приведу пример. Я хочу найти билет на самолет по минимальной стоимости. Для этого я использую агрегатор разных авиакомпаний, где легко сравнить цены между собой. В этом случае этот агрегатор – это часть систем, которая покажет мне все нужные билет, и, скорее всего, самый дешевый будет наверху. Понятно, что ее так запрограммировали – и что она выполняет ролевое поведение в зависимости от этой программы. Ее цель – сделать так, чтоб я купил билет здесь, а не в другом месте. Но ведь точно такую же цель и схожее поведение выполнял бы и живой менеджер по продажам – возможно, не так четко и развернуто, как машина, конечно.

Так что же такое интерес применительно к этой ситуации, чтобы мы жестко могли разграничить два этих агента?

«Ее цель — сделать так, чтоб я купил билет здесь, а не в другом месте. Но ведь точно такую же цель и схожее поведение выполнял бы и живой менеджер по продажам — возможно, не так четко и развернуто, как машина, конечно.»

Да, думаю по сути ролевое поведение и функция это одно и тоже. Если в первом случае функцию/ролевое поведение исполняет живой человек, то во втором эту операцию выполняет запрограммированный компьютер.

Так интерес этого менеджера по продажам! А компьютер – просто инструмент этого человека. Как молоток у плотника.

Но, конечно, бывают и более сложные случаи (если появляется prompt engineering и компьютер может переключать свои интересы на базе какой-то своей программы, а эти интересы не запланированные человеком с ролью и этими интересами, а познаны компьютером в ходе его обучения). Тогда да, симметрично – рассматриваем компьютер с приданными ему людьми, людей потихоньку заменяем другими компьютерами. И учитываем интересы искусственных интеллектов, которые их реализуют, строя какие-то планы. Но вот молоток не строит планы по учёту интересов, у него намерений нет – всё, интересов нет. И у калькулятора нет. У компьютера – смотрим, какую программу реализует компьютер.

Да, здесь можно выйти на линию агентности: мы говорим, что интерес есть у объекта типа “агент”. А что это за объект дальше - человек::агент, (человек+компьютер)::агент, компьютер::агент - уже может быть не так принципиально (хотя и важно для планирования взаимодействий с агентами).