Я попытался реализовать OpenEars Speech Recognizer. Поскольку загруженное руководство компилируется без каких-либо проблем, когда я попытался написать свой собственный простой код objective-C после руководство, я получил пять ошибок компоновщика Apple Mach-O:
Неопределенные символы для архитектуры x86_64:
"_OBJC_CLASS _ $ _ OEAcousticModel", ссылка на которую: objc-class-ref в ViewController.o "_OBJC_CLASS _ $ _ OEEventsObserver", ссылка на: objc-class-ref в ViewController.o "_OBJC_CLASS , ссылка на: objc-class-ref в ViewController.o "_OBJC_CLASS _ $ _ OEPocketsphinxController", ссылка на которую: objc-class-ref в ViewController.o ld: не найдены символы для архитектуры x86_64 clang: error: команда компоновщика завершилась неудачно с код выхода 1 (используйте -v, чтобы увидеть вызов)
Я попытался повторно открыть XCode, добавил несколько библиотек / фреймворков (например, CoreData), проверил целевое членство, но по-прежнему получаю те же ошибки. Я попробовал предложения из здесь и здесь, но они не помогли. Кстати, добавление SenTestingKit.framework
уменьшило количество ошибок с пяти до одной. Но все же я застрял с ошибками типа компоновщика. Насколько мне известно, эти проблемы связаны с привязкой, а не с кодированием.
Немного подробностей: работает iOS SDK 8.4, версия XCode 6.4 (6E35b). Добавлены библиотеки, такие как: CoreData.framework
, AVFoundation.framework
, AudioToolbox.framework
и Frameworks of OpenEars (OpenEars.framework
, Sit.framework
).
п. с. Между тем мне нужен достойный распознаватель речи для iOS и OS X с использованием Objective-C, не обязательно OpenEars, поэтому приветствуются другие предложения.