Control F を使用して、各カタログの特定のエラーコードを検索します。エラーコードの検索には、画面右上の検索ボックスをご利用ください。
コード | 重大度 | メッセージ | 原因/処置 |
---|---|---|---|
000200 | ERROR | pam_start() failed | |
000201 | ERROR | pam_authenticate failed (user %s, retval %d) | |
000202 | ERROR | pam_end() failed?!?! | |
000203 | ERROR | Did not find expected group ‘lkguest’ | |
000204 | ERROR | Did not find expected group ‘lkoper’ | |
000205 | ERROR | Did not find expected group ‘lkadmin’ | |
000208 | ERROR | pam_setcred establish credentials failed (user %s, retval %d) | 原因: ユーザー {user} の有効なログイン資格情報を確立できません。pam_setcred 呼び出しで返された値は次の通りです:{retval} 処置: 詳細については、/var/log/security および /var/log/messages を確認して下さい。 |
000209 | ERROR | pam_setcred delete credentials failed (user %s, retval %d) | 原因: ユーザー {user} の有効なログイン資格情報を確立できません。pam_setcred 呼び出しで返された値は次の通りです:{retval} 処置: 詳細については、/var/log/security および /var/log/messages を確認して下さい。 |
000902 | ERROR | Error removing system name from loopback address line in /etc/hosts file. You must do this manually before starting the GUI server. | 原因: システム名が /etc/hosts ファイルから削除されていません。 処置: システム名を手動で削除し、GUI サーバを再起動して、次のコマンドを入力します: run <action name> |
000918 | ERROR | LifeKeeper GUI Server error during Startup | 原因: 異常な状態により、GUI サーバが終了しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
000931 | ERROR | S_LK server process died or was killed | |
000932 | ERROR | *** Too many failed attempts to start the LifeKeeper GUI server java process. | |
000933 | ERROR | *** Stopping further startup attempts. | |
000934 | ERROR | *** After correcting the problem, start the GUI server with ‘lkGUIserver start | |
001041 | FATAL | Usage error | |
001042 | FATAL | %s: both tag and id name not specified | |
001043 | FATAL | %s: resource "%s" not found on local server | |
001048 | ERROR | Resource "%s" is not ISP on server "%s" Manually bring the resource in service and retry the operation | |
001051 | FATAL | Either TEMPLATESYS or TEMPLATETAG argument missing | |
001052 | FATAL | Template resource "%s" on server "%s" does not exist | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
001053 | ERROR | Cannot access canextend script "%s" on server "%s" | 原因: {server} でスクリプト CANEXTEND が見つからなかったので、LifeKeeper は拡張前のチェックを実行できませんでした。 処置: LifeKeeper の設定を確認してください。 |
001054 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 |
001055 | ERROR | Cannot access extend script "%s" on server "%s" | 原因: LifeKeeper は、{server} でスクリプト EXTEND が見つからなかったので、リソース階層を拡張できませんでした。 処置: LifeKeeper の設定を確認してください。 |
001056 | ERROR | Unable to get a unique tag name on server "%s" for template resource "%s" | |
001057 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 |
001058 | ERROR | END failed resource extension of "%s" on server "%s" due to a "%s" signal – backing out changes made to server | |
001059 | ERROR | Resource with tag "%s" already exists | 原因: リソースで指定した名前はすでに使用中です。 処置: リソースに別の名前を選択するか、既存のリソースを使用してください。 |
001060 | ERROR | Resource with either matching tag "%s" or id "%s" already exists on server "%s" for App "%s" and Type "%s" | 原因: リソースで指定した名前または ID はすでに使用中です。 処置: リソースに別の名前または ID を選択するか、既存のリソースを使用してください。 |
001061 | ERROR | Error creating resource "%s" on server "%s" | 原因: リソースの作成中に予期しない障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
001062 | FATAL | create: Usage error | |
001063 | FATAL | %s: tag name not specified | |
001064 | FATAL | %s: switchback name not specified | |
001073 | ERROR | Error bringing resource "%s" in service on server "%s" | |
001081 | WARN | IP address \"$ip\" is neither v4 nor v6 | 原因: 指定した IP アドレスは IPv4 アドレスでも IPv6 アドレスでもありません。 処置: 指定した名前またはアドレスを確認し、再試行してください。名前を指定している場合は、名前の解決が有効な IP アドレスを返していることを確認してください。 |
002018 | ERROR | Error finding one of the hierarchy root(s) "%s" on server "%s". Verify that all of the resources passed in exist on the server and that server and comm paths are alive. | |
002019 | ERROR | Roots passed in which include "%s" on server "%s" don\‘t match the actual roots found for the hierarchy. In order to change the priority of a hierarchy, you must pass to the script a list of all root resources for all associated hierarchies. Verify that all root resources are in the list passed and that all of these are root resources. | |
002020 | ERROR | Error finding all roots to do root validation for resource(s) "%s" on server "%s". Verify that server and comm paths are alive, then retry the operation. | |
002021 | ERROR | Error getting equivalencies for some of the resources in hierarchy with root(s) "%s" on server "%s". Verify that all remote servers have a live comm path to the server where the hierarchy is being changed and that all equivalencies exist. | |
002022 | ERROR | There was an error changing priorities for hierarchy with root(s) "%s" and previous priorities could not be successfully restored. Verify that there is a live comm path to all servers where the hierarchies exist. When all comm paths are restored, try repairing the priorities one at a time using the command line utility hry_setpri. If the damage is too severe, the hierarchies may have to be deleted and re-created. | |
002023 | ERROR | There was an error changing priorities for hierarchy with root(s) "%s" and all previous priorities were successfully restored. Retry the operation. | |
002024 | ERROR | Resource "%s" has an equivalency on a server that does not have a live comm path with server "%s". All servers where the hierarchy exists must have a live comm path with the server where the priority is being changed. Retry the operation after all comm paths are re-established between the servers. | |
002025 | ERROR | The desired priority change on server "%s" causes a conflict with an existing priority on another server for hierarchy with root(s) "%s". Retry the operation with a different priority which doesn\‘t currently exist in the hierarchy. | |
002026 | ERROR | The requested priority change would cause the hierarchy to have reverse priorities. LifeKeeper allows resources within hierarchies to have different priority values so long as the relative order is the same for all resources within the hierarchy on all systems where the hierarchy exists. The proposed priority change would cause one of the resources within the hierarchy to have priority values in non-relative order with the other resources in the hierarchy. Try to determine a priority value which will not cause a reverse priority order and retry the operation. | |
002027 | ERROR | The selected hierarchy with root(s) "%s" does not exist on server "%s". Select a server on which the hierarchy exists and retry the operation. | |
002028 | ERROR | The selected hierarchy with root(s) "%s" only exists on server "%s". You cannot change the priority of a hierarchy that only exists on one server. | |
002029 | ERROR | The selected priority value for server "%s" does not fall within the acceptable range of 1-999. Please select a priority value within the acceptable range and retry the operation. | |
002030 | ERROR | Error getting cluster wide administrative locks for operation. Verify that all systems and comm paths are alive in cluster, then retry the operation. | |
004001 | ERROR | passed in NULL pointer to ins_othersys | |
004013 | ERROR | test_list ttag arg is NULL | |
004014 | ERROR | test_and_remove_from_list ttag arg is NULL | |
004016 | ERROR | add_to_list ttag arg is NULL | |
004019 | ERROR | remove_from_list arg is NULL | |
004020 | ERROR | add_to_list arg is NULL | |
004024 | ERROR | 原因: LCD はリソースのリカバリ中にリソース ID {id} のリソース情報のフェッチに失敗しました。 処置: 入力リソース ID を確認し、リカバリ操作を再試行してください。 |
|
004028 | ERROR | %s occurred to resource \"%s\" | 原因: リソース {resource} のローカルリカバリが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004055 | ERROR | attempt to remote-remove resource \"%s\" that can’t be found | 原因: タグ名 {tag} によるリソースの検索中に、リモートによるサービスからのリソース削除に失敗しました。 処置: 入力タグ名を確認し、リカバリ操作を再試行してください。 |
004056 | ERROR | attempt to remote-remove resource \"%s\" that is not a shared resource | 原因: タグ名 {tag} が共有リソースでない場合に、リモートによるサービスからのリソース削除に失敗しました。 処置: 入力タグ名を確認し、リカバリ操作を再試行してください。 |
004060 | ERROR | attempt to transfer-restore resource \"%s\" that can’t be found | 原因: タグ名 {tag} を指定したサービスリソースのリモート転送に失敗しました。 処置: 入力タグ名を確認し、リカバリ操作を再試行してください。 |
004061 | ERROR | attempt to transfer-restore resource \"%s\" that is not a shared resource with machine \"%s\" | 原因: LifeKeeper は、リモート {machine} からサービスのリソースをリモート転送する際に、{tag} 名による共有リソースの検出に失敗しました。 処置: 入力タグ名を確認し、リカバリ操作を再試行してください。 |
004062 | ERROR | attempt to transfer-restore resource \"%s\" that is not a secondary shared resource with primary on machine \"%s\" | |
004089 | ERROR | ERROR: Parallel recovery initialization failed.\n | 原因: 並行リカバリは、階層内にあるリソースのリストの初期化に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004091 | ERROR | ERROR: fork failed. continuing to next resource\n | 原因: パラレルリカバリーで、単一のリソースをリストアしようとする新しいプロセスを分岐できませんでした。 |
004093 | ERROR | ERROR: reserve failed. continuing to next resource\n | 原因:並行リカバリは、集合階層から単一のリソースのリザーブに失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004095 | ERROR | ERROR: wait() error\n | |
004096 | ERROR | ERROR: clone %d is hung, attempting to kill it\n | 原因: リソースリカバリの単一のサブプロセスが、リソース階層全体の並行リカバリの際にハングしました。 処置: ハングしているサブプロセスが自動的に停止します。 |
004097 | ERROR | ERROR: Could not kill clone %d\n | 原因: ハングしているサブプロセスの停止に失敗しました。 |
004116 | ERROR | %s | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、中間フォルダを作成しようとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、中間フォルダが作成されていない理由を判別してください。 |
004117 | ERROR | open(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、一時ファイルを開こうとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルを開くことができない理由を判別してください。 |
004118 | ERROR | write(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、一時ファイルに書き込もうして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルの書き込みに失敗した理由を判別してください。 |
004119 | ERROR | fsync(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、一時ファイルに fsync を実行しようとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、「fsync」が失敗した理由を特定してください。 |
004120 | ERROR | close(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、一時ファイルを閉じようとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルのクローズに失敗した理由を判別してください。 |
004121 | ERROR | rename(%s, %s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、一時ファイル {file} の名前を元のファイル {file} に変更しようとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルの名前変更に失敗した理由を判別してください。 |
004122 | ERROR | open(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、中間ディレクトリ {directory} を開こうとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ディレクトリのオープンに失敗した理由を判別してください。 |
004123 | ERROR | fsync(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、中間ディレクトリ {directory} に fsync を実行しようとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ディレクトリの「fsync」に失敗した理由を特定してください。 |
004124 | ERROR | close(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、中間ディレクトリ {directory} を閉じようとして失敗しました。これはシステムエラーです。 処置:ログで詳細なエラー情報を確認し、ディレクトリのクローズに失敗した理由を判別してください。 |
004125 | ERROR | wrote only %d bytes of requested %d\n | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、書き込まれるデータの最終的なサイズ {size} バイトが要求バイト数 {number} を下回っているため、書き込み操作が失敗しました。 処置: ログで関連エラー情報を確認し、データの書き込みに失敗した理由を判別してください。 |
004126 | ERROR | open(%s) | 原因: データオブジェクトのオンディスクバージョンをバッファに読み取っている間に、データファイルを開こうとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルのオープンに失敗した理由を判別してください。 |
004127 | ERROR | open(%s) | 原因: データオブジェクトのオンディスクバージョンをバッファに読み取っている間に、一時データファイルを開こうとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルのオープンに失敗した理由を判別してください。 |
004128 | ERROR | read(%s) | 原因: データオブジェクトのオンディスクバージョンをバッファにロードしている間に、データファイルを読み取ろうとして失敗しました。これはシステムエラーです。 処置:ログで詳細なエラー情報を確認し、ファイルの読み取りに失敗した理由を判別してください。 |
004129 | ERROR | read buffer overflow (MAX=%d)\n | 原因: データオブジェクトのオンディスクバージョンをバッファに読み取ろうとしている間に、読み取りバッファの制限 {max} に達しました。 処置: LifeKeeper 設定を確認し、LifeKeeper を再起動してください。 |
004130 | ERROR | close(%s) | 原因: データオブジェクトのオンディスクバージョンをバッファに読み取っている間に、データファイルのクローズに失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルのクローズに失敗した理由を判別してください。 |
004131 | ERROR | rename(%s, %s) | 原因: データオブジェクトのオンディスクバージョンをバッファに読み取っている間に、一時データファイルの名前変更に失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルの名前変更に失敗した理由を判別してください。 |
004132 | ERROR | Can’t open %s : %s | 原因: アプリケーションとリソースタイプ情報のオンディスクバージョンをバッファに読み取っている間にエラー {error} でディレクトリ {directory} のオープンに失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ディレクトリのオープンに失敗した理由を判別してください。 |
004133 | ERROR | path argument may not be NULL | 原因: 入力ソースパスが見つからないので、ファイルコピー中にコマンド「lcdrcp」が失敗しました。 処置: 入力ソースパスを確認し、「lcdrcp」を再試行してください。 |
004134 | ERROR | destination path argument may not be NULL | 原因:入力ディスティネーションパスが見つからないので、ファイルコピー中にコマンド「lcdrcp」が失敗しました。 処置: 入力ディスティネーションパスを確認し、「lcdrcp」を再試行してください。 |
004135 | ERROR | destination path can’t be zero length string | 原因: 「lcdrcp」によるファイルコピー中に、入力ディスティネーションパスが空でした。 処置: 入力ディスティネーションパスを確認し、「lcdrcp」を再試行してください。 |
004136 | ERROR | open(%s) | 原因: 「lcdrcp」によるファイルコピー中に、ソースファイルパスのオープンに失敗しました。これはシステムエラーです。 処置: 入力ソースパスがあるかどうか、および使用可能かどうかを確認し、「lcdrcp」を再試行します。また、関連ログで詳細なエラー情報を確認してください。 |
004137 | ERROR | fstat(%s) | 原因: 「lcdrcp」によるファイルコピー中に、「fstat」を使用したファイル属性のフェッチに失敗しました。これはシステムエラーです。 処置:ログで詳細なエラー情報を確認してください。 |
004138 | ERROR | file \"%s\" is not an ordinary file (mode=0%o) | 原因: 「lcdrcp」によるファイルコピー中に、通常のものではないファイルとしてソースファイルが検出されました。 処置: 入力ソースファイルパスを確認し、「lcdrcp」を再試行してください。 |
004139 | ERROR | read(%s,%lu){%*.*s} | |
004140 | ERROR | read %d bytes of %lu bytes of file \"%s\" | |
004141 | ERROR | mkdirp(%s,0755) | |
004142 | ERROR | stat(%s) | |
004143 | ERROR | existing destination path \"%s\" has mode 0%o | |
004145 | ERROR | open(%s,0x%x,0%o) | |
004146 | ERROR | fchmod(%s,0%o) | |
004147 | ERROR | fchown(%s,%u,%u) | |
004148 | ERROR | lseek(%s,%u) | |
004149 | ERROR | write(%s,%u) | |
004150 | ERROR | only %u bytes written of %lu to file \"%s\" | |
004151 | FATAL | lcdMalloc failure | 原因: 共有メモリに、要求されたサイズのメモリを割り当てることができませんでした。 処置: 致命的なエラーが生成されます。 |
004152 | ERROR | having \"%s\" depend on \"%s\" would produce a loop | 原因: 要求された依存関係を追加すると、依存関係がループします。 処置: 要求された依存関係を修正し、依存関係の作成を再試行してください。 |
004153 | ERROR | must define object first with ::create() or ::fill() | |
004154 | ERROR | child() only works on local objects | |
004155 | ERROR | must define object first with ::create() or ::fill() | |
004156 | ERROR | parent() only works on local objects | |
004157 | ERROR | must specify parent tag to get child dependencies | |
004158 | ERROR | must specify child tag to get parent dependencies | |
004160 | FATAL | attempt to access empty dependency list | |
004161 | FATAL | index %d past range 0-%d | |
004162 | ERROR | must specify parent name of dependency | |
004163 | ERROR | must specify child name of dependency | |
004164 | ERROR | Priority mismatch between resources %s and %s. Dependency creation failed. | 原因: {resource1} と {resource2} のプロパティが一致しません。 処置: リソースプロパティは一致している必要があります。どちらか一方または両方のプロパティを同じ値に変更し、依存関係の作成を再試行してください。 |
004165 | ERROR | The selected child and parent for the dependency have a conflicting relationship on other systems where the equivalent resources exist. Dependency creation failed. | |
004166 | ERROR | both parent and child of dependency can’t be left unspecified | |
004167 | ERROR | COMMAND OUTPUT: %s | |
004168 | FATAL | number of list elements has exceeded %d\n | |
004169 | ERROR | COMMAND OUTPUT: %s | |
004174 | FATAL | sigprocmask | |
004175 | FATAL | sigprocmask | |
004176 | ERROR | %s | 原因: コマンド「doabort」がコアファイルを書き込むための {directory} の作成に失敗しました。これはシステムエラーです。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004177 | ERROR | %s | |
004178 | ERROR | fileno(stderr) | |
004179 | ERROR | sigset(SIGABRT) | |
004180 | ERROR | sigrelse(SIGABRT) | |
004182 | ERROR | received signal %d\n | 原因: 信号 {signum} を受信しました。 |
004183 | FATAL | lcdinitsig;sig=%d | |
004184 | FATAL | lcdinitsig;default:signal=%d | |
004185 | ERROR | %s: ::receive(%d) had bad name error on incoming_mailbox %s | |
004186 | ERROR | %s: ::receive(%d) protocol error on incoming_mailbox %s | 原因: {function} で、タイムアウト時間({timeout}秒)以内にメッセージを受信しようとしましたが、受信メールボックス {mailbox} が非アイドル状態のため受信できませんでした。 処置: クラスター内の接続の状態を確認し、プロセスを再試行してください。 |
004187 | ERROR | %s: ::receive(%d) returned NULL message pointer and ::last_err()==r_okay on incoming_mailbox %s | |
004188 | ERROR | %s: ::receive(%d) had unknown ::last_err() status %d on incoming_mailbox %s | |
004189 | ERROR | %s: ::receive(%d) returned NULL message pointer on incoming_mailbox %s | |
004190 | ERROR | %s: ::receive(%d) did not receive message within %d seconds on incoming_mailbox %s | 原因: 関数 {function} で、受信メールボックス {mailbox} でタイムアウト {timeout} 秒以内にメッセージを受信しようとしたところ、失敗しました。 処置: クラスタ内の接続の状態を確認し、プロセスを再試行してください。 |
004191 | ERROR | no system specified for remote execution of \"%s\" | |
004192 | ERROR | no mailbox specified for remote execution of \"%s\" | |
004193 | ERROR | retbuf can’t be NULL | |
004194 | ERROR | retp can’t be NULL | |
004195 | ERROR | Can’t find return value in return buffer. Possible buffer overflow caused by the size of the returned data. | |
004198 | ERROR | retbuf is NULL | |
004199 | ERROR | lcdsendmes: can’t set data on message | |
004200 | ERROR | lcdsendmes: can’t set data on message | |
004201 | ERROR | lcdsendmes: can’t set reply system | |
004202 | ERROR | lcdsendmes: can’t set reply mailbox | |
004204 | ERROR | attempt to send illegal message | 原因: 不正なメッセージを送信しようとしたため、メッセージの送信に失敗しました。 |
004205 | ERROR | destination system \"%s\" is unknown | 原因: 不明なディスティネーションシステム名 {system} のため、メッセージの送信に失敗しました。 処置: システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004206 | ERROR | destination mailbox \"%s\" at system \"%s\" is unknown | 原因: 不明なディスティネーションシステム名 {system} の不明なメールボックス {mailbox} のため、メッセージの送信に失敗しました。このエラーは、LCD が完全に初期化される前にメッセージを送信することで発生します。 処置:システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004207 | ERROR | destination mailbox \"%s\" at system \"%s\" is full. Trying Again … | |
004208 | ERROR | destination system \"%s\" is alive but the \"%s\" mailbox process is not listening. | 原因: メッセージの送信に失敗しました。ディスティネーションシステム {system} へのネットワーク接続は稼働中ですが、ディスティネーションメールボックスとの通信は失われました。 処置: システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004209 | ERROR | destination system \"%s\" is dead. | 原因: ディスティネーションシステム {system} との接続が失われたため、メッセージの送信に失敗しました。 処置: システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004210 | WARN | destination system \"%s\" is temporarily dead. will try again later… | |
004211 | ERROR | can’t send to destination \"%s\" error=%d | 原因: 内部エラー {error} のため、ディスティネーションシステム {system} へのメッセージ送信に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004212 | ERROR | lcdsendmes: unexpected error | |
004217 | ERROR | destination system \"%s\" is out of service. | 原因: ディスティネーションシステム {system} との接続が失われたため、メッセージの送信に失敗しました。 処置: システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004221 | ERROR | destination system \"%s\" went out of service. | 原因: ディスティネーションシステム {system} との接続が失われたため、メッセージの送信に失敗しました。 処置: システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004223 | ERROR | received message with zero length on private mailbox %s | |
004224 | ERROR | lcdsendremote: unknown message type=%d(‘%c’) received by machine \"%s\" | |
004225 | ERROR | illegal net type | |
004226 | ERROR | net type must not be ILLNET | |
004227 | ERROR | baud rate must be between B0 and B38400 | |
004228 | ERROR | Can’t get host name from getaddrinfo() | 原因: 「getaddrinfo()」を使用してホスト名を取得しているときに障害が発生したため、ネットワークオブジェクトの作成に失敗しました。 処置: システムの設定と状態を確認し、同じプロセスを再実行してください。 |
004229 | ERROR | Can’t get host name from getaddrinfo() | |
004230 | ERROR | device %s no such file or directory \n | |
004231 | ERROR | stat of device %s failed errno=\n | |
004232 | ERROR | device %s not a character special file\n | |
004233 | ERROR | device %s already in use | |
004234 | ERROR | IP address pair %s already in use | 原因: TCP コミュニケーションパスで IP アドレスペア {pair} がすでに使用中のため、ネットワークオブジェクトの作成に失敗しました。 処置: 入力 IP アドレスペアを確認し、ネットワークの作成を再実行してください。 |
004244 | ERROR | %s Will try port \"%s\" instead. | |
004246 | ERROR | no response heard from system \"%s\" on TTY port \"%s\" to reply box \"%s\" in %d seconds | |
004247 | ERROR | %s | |
004248 | ERROR | failed to allocate %dB message buffer | |
004250 | ERROR | %s Will try port \"%s\" instead. | |
004253 | ERROR | %s message failure by port %s siz=%d | |
004254 | WARN | no response heard from system \"%s\" on TTY port \"%s\" to reply box \"%s\" in %d seconds (siz=%d) | |
004255 | ERROR | %s | |
004256 | ERROR | %s | |
004258 | WARN | Communication to %s by %s FAILED | 原因: コミュニケーションパス {path} によるシステム {system} への通信に失敗しました。 処置: システム設定とネットワーク接続を確認してください。 |
004261 | WARN | COMMUNICATIONS failover from system \"%s\" will be started. | 原因: すべてのコミュニケーションパスがダウンしたため、システム {system} からのフェイルオーバが開始されます。 処置: システム設定とネットワーク接続の状態を確認してください。フェイルオーバが完了したら、システムの状態を確認してください。 |
004263 | ERROR | can not set read pid if network type is TCP | |
004264 | ERROR | can’t remotely set read pid | |
004265 | ERROR | can’t remotely increment statistics | |
004266 | ERROR | can only set write pid if network type is TTY | |
004267 | ERROR | can’t remotely set write pid of TTY object | |
004268 | ERROR | can not set baud if network type is TCP | |
004269 | ERROR | baud rate must be between B0 and B38400 | |
004270 | ERROR | can’t set network type to ILLNET | |
004271 | ERROR | object already has this nettype | |
004272 | ERROR | system \"%s\" device \"%s\" never had its net type set | |
004273 | FATAL | internal buffer too small | |
004274 | ERROR | must specify new network name | |
004275 | ERROR | must define network type when it is being created | |
004276 | ERROR | priority must be in range 1 thru 99 | |
004279 | FATAL | prefix_lkroot("config/LK_START_TIME")); | |
004281 | ERROR | must specify original network name | |
004282 | ERROR | must specify original device path | |
004283 | ERROR | new system \"%s\" and device \"%s\" can’t be same as old system and device | |
004284 | ERROR | new system \"%s\" can’t be same as old system \"%s\" | |
004285 | ERROR | ||
004286 | ERROR | new system \"%s\" and device \"%s\" can’t be same as old system and device | |
004288 | FATAL | illegal timeout baud %d | |
004292 | ERROR | resource \"%s\" %s | 原因: 現在の状態が不明なため、リソースを in service にできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004293 | ERROR | resource \"%s\" %s | 原因: 現在の状態により許可されていないため、リソースを in service にできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004294 | ERROR | resource \"%s\" requires a license (for Kit %s/%s) but none is installed | 原因: リソースの関連リカバリキットにはライセンスが必要です。 処置: リソースを in service にするサーバに、リカバリキットのライセンスをインストールしてください。 |
004295 | ERROR | The current number of in-service \"%s/%s\" resources (=%d) has already reached or exceeded the maximum allowed (=%d). Resource \"%s\" can not be restored at this time. To remove this restriction contact your SIOS Technology sales representative. | |
004296 | ERROR | The total number of \"%s/%s\" resources (=%d) in the system exceeds the maximum allowed (=%d). No resources of this type will be restored until the number is reduced to the maximum allowed or less. Resource \"%s\" can not be restored at this time. To remove this restriction contact your SIOS Technology sales representative. | |
004297 | ERROR | secondary remote resource \"%s\" on machine \"%s\" is already in-service, so resource \"%s\" on machine \"%s\" can’t be brought in-service. | 原因:セカンダリリモートリソース {resource} がマシン {machine} ですでに in service になっているため、リソース {resource} をマシン {machine} で in service にできませんでした。 処置: リモートリソースを手動で out of service に変更し、ローカルリソースで再び in service にしてください |
004298 | ERROR | remote resource \"%s\" on machine \"%s\" is still in-service, restore of resource \"%s\" will not be attempted!\n | |
004300 | ERROR | restore of resource \"%s\" has failed | 原因: リソースを in service にできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004301 | ERROR | exceeded internal maximum number of resources to restore (%d) | |
004302 | ERROR | exceeded internal maximum number of resources to restore (%d) | |
004303 | ERROR | resource \"%s\" not found | |
004304 | ERROR | restore() can’t restore resource \"%s\" | |
004311 | ERROR | can’t perform \"remove\" action on resources in state \"%s\" | 原因: 現在の状態が {state} のため、リソースを out of service にできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004313 | ERROR | remove of resource \"%s\" has failed | 原因: リソース {resource} をサービス休止にできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004318 | ERROR | %s,priv_globact(%d,%s): script %s FAILED returning %d | 原因: 指定したエラーコードでグローバルアクションスクリプトが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004322 | ERROR | %s,priv_globact(%d,%s): script %s FAILED returning %d | |
004326 | ERROR | %s,priv_globact(%d,%s): cmd \"%s\" returned error \"%d\" retbuf=\"%s\" | |
004330 | ERROR | can’t run all pre global stripts together | |
004332 | ERROR | action \"%s\" has failed on resource \"%s\" | 原因: リソースアクションが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004334 | ERROR | action \"%s\" has failed on resource \"%s\" | |
004335 | ERROR | setpriority(PRIO_PROCESS, 0, %d) | |
004336 | FATAL | execl(%s) | |
004337 | ERROR | fork(%s) | |
004338 | ERROR | waitpid failed (%s) | |
004339 | ERROR | child killed by signal %d (%s) | |
004340 | ERROR | child stopped by signal %d (%s) | |
004341 | ERROR | child continued (%s) | |
004342 | ERROR | unknown stoppage of child (%s) | |
004344 | ERROR | first tag is NULL or zero length | |
004345 | ERROR | second tag is NULL or zero length | |
004346 | ERROR | equivalency type must not be ILLEQV | |
004347 | ERROR | priority values cannot be zero for a SHARED equivalency | |
004348 | ERROR | both resources of the equivalency are the same | |
004349 | ERROR | resource \"%s\" cannot be remote for a \"%s\" equivalency | |
004350 | ERROR | resource \"%s\" cannot be remote for a \"%s\" equivalency | |
004351 | ERROR | a \"%s\" equivalency must have one remote resource | 原因:同じシステムに 2 つの入力タグ名が存在しているため、イクイバレンシ {eqvtype} の作成に失敗しました。 処置: 入力リソースタグ名を修正し、同じプロセスを再実行してください。 |
004352 | ERROR | both resources of a \"%s\" equivalency must not be remote | |
004356 | WARN | Use unsupported option %s for remove. This option may be removed in future upgrades. | |
004357 | ERROR | Priority of system \"%s\" for resource \"%s\" must be the same in all equivalencies | |
004358 | ERROR | Priority conflict. Remote priority value %u for resource \"%s\" is already assigned to another system | |
004360 | ERROR | \"%s\", \"%s\" is not a shared resource | |
004361 | ERROR | \"%s\", \"%s\" is not a shared resource | |
004367 | ERROR | both resources of the equivalency are the same | |
004370 | FATAL | attempt to access empty equivalency list | |
004371 | FATAL | index %d past range 0-%d | |
004372 | FATAL | internal buffer too small | |
004375 | FATAL | sigset(SIGALARM) failed | |
004376 | FATAL | wait period of %u seconds for LCM to become available has been exceeded (lock file \"%s\" not removed) | 原因: 妥当な時間内に LCM デーモンが使用可能になりませんでした。LCD は LCM なしでは操作できません。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004377 | ERROR | in %s, %s is not a valid value for %s\n | |
004378 | FATAL | mpcntl(MPCNTL_BIND) | |
004380 | ERROR | initlcdMalloc;ftok | |
004381 | ERROR | initlcdMalloc;shmget | |
004382 | ERROR | initlcdMalloc;shmctl | |
004383 | ERROR | initlcdMalloc;shmget | |
004384 | ERROR | initlcdMalloc;shmget | |
004385 | ERROR | initlcdMalloc;shmget,IPC_EXCL | |
004386 | ERROR | initlcdMalloc;shmget | 原因: 共有メモリセグメントを初期化できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。製品ドキュメントを参照し、サーバが最低要件を満たしていること、およびオペレーティングシステムが適切に設定されていることを確認してください。 |
004387 | ERROR | initlcdMalloc;shmat | |
004388 | ERROR | nsbrk: allocation overflow linno=%d incr=%d\n | |
004389 | WARN | flag initialisation: removing stale flag %s\n | |
004390 | WARN | flag initialisation: removing insane flag %s\n | |
004391 | FATAL | internal buffer too small | |
004392 | FATAL | action_has_finished() called before wait_for_action() | |
004393 | FATAL | can’t find my wait flag=%s | |
004394 | FATAL | expected wait flag \"%s\", found \"%s\" | |
004395 | FATAL | can’t remove my wait flag %s | |
004396 | ERROR | process pid=%d | |
004399 | ERROR | argument must be of form machine:flag | |
004401 | WARN | wait_for_action: deleting insane flag %s\n | |
004402 | FATAL | can’t find my wait flag=%s | |
004405 | ERROR | chk_man_interv: Unable to create flag file <%s>, using default CONFIRMSODEF value %d. | |
004406 | ERROR | chk_man_interv: Unable to write to flag file <%s>, using default CONFIRMSODEF value %d. | |
004407 | ERROR | chk_man_interv: Unable to invoke sendevent, using default CONFIRMSODEF value %d. | |
004410 | ERROR | wait_for_action flag %s is already held by process %d\n | |
004412 | FATAL | wait_for_action: curpid=%d | |
004413 | WARN | wait_for_action: admin flag %s removed because owner terminated | |
004415 | ERROR | acquisition of lock %s timed out after %d tries\n | |
004416 | WARN | Caller process %d has disappeared – removing admin flag\n | |
004419 | ERROR | must specify flag name | |
004420 | ERROR | must specify new flag name | |
004422 | ERROR | must specify flag name to remove | |
004425 | ERROR | index of \"%d\" past maximum \"%d\" | |
004426 | ERROR | object empty; use ::create() first | |
004427 | ERROR | object empty; use ::fill() first | |
004428 | ERROR | new field not specified properly | |
004429 | ERROR | index of \"%d\" past maximum \"%d\" | |
004430 | ERROR | object empty; use ::create() first | |
004431 | ERROR | object empty; use ::fill() first | |
004432 | ERROR | can’t change field because %s already in use | |
004433 | ERROR | use ::create() on local objects | |
004434 | ERROR | new name not specified properly | |
004435 | ERROR | object has already been created as %s | |
004436 | ERROR | new name not specified properly | |
004437 | ERROR | local object %s was not allocated using C++ \"new\" operator | |
004438 | ERROR | remote object %s for system \"%s\" must not be allocated using C++ \"new\" operator | |
004440 | ERROR | index %d past range 0-%d ondx=%d | |
004441 | ERROR | attempt to access empty base list ondx=%d | |
004442 | FATAL | failed to compile requires regexp, err=%d | |
004443 | FATAL | failed to compile except regexp, err=%d | |
004444 | WARN | License key (for Kit %s/%s) has EXPIRED | 原因: ライセンスが期限切れです。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
004445 | WARN | License key (for Kit %s/%s) will expire at midnight in %ld days | 原因: ライセンスが間もなく期限切れです。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
004446 | ERROR | %s | |
004447 | ERROR | must specify application name | |
004448 | ERROR | must specify resource type name | |
004449 | ERROR | must specify resource type name | |
004450 | ERROR | must specify application | |
004453 | ERROR | resource type \"%s\" for application \"%s\" is unknown on machine \"%s\" | |
004454 | ERROR | can’t remove entry for local system \"%s\" | |
004455 | ERROR | can’t set network type to ILLSYS | |
004457 | FATAL | internal buffer too small | |
004458 | ERROR | must specify new system name | |
004459 | ERROR | must specify system name to remove | |
004461 | ERROR | must specify system name | |
004462 | ERROR | system \"%s\" not defined on machine \"%s\". | |
004463 | ERROR | must specify system name | |
004464 | ERROR | system \"%s\" not defined on machine \"%s\". | |
004465 | ERROR | must specify system name | |
004466 | ERROR | system \"%s\" not defined on machine \"%s\". | 原因: 指定したシステム名が不明です。 処置: システム名を確認し、操作を再試行してください。 |
004467 | ERROR | system \"%s\" unknown on machine \"%s\" | 原因: 指定したシステム名が認識されません。 処置: システム名を確認し、操作を再試行してください。 |
004468 | ERROR | %s | |
004469 | ERROR | must specify new application name | |
004470 | ERROR | must specify application name to remove | |
004472 | ERROR | application \"%s\" unknown on machine \"%s\" | |
004473 | FATAL | new not allowed for lcdlock | |
004474 | FATAL | delete not allowed for lcdlock | |
004475 | FATAL | ftok(%s, %d) | |
004476 | FATAL | can’t exclusively create semaphore set | |
004477 | FATAL | can’t get semid of semaphore set | |
004478 | FATAL | can’t remove semaphore set | |
004479 | FATAL | can’t create new semaphore set | |
004480 | FATAL | can’t get semid of semaphore set | |
004481 | FATAL | can’t initialize semaphore set | |
004483 | FATAL | can’t obtain LCD daemon semaphore | |
004485 | WARN | can’t get key for GUI semaphore | |
004486 | WARN | can’t get GUI semaphore | |
004487 | FATAL | tag index %d must be less than %d | |
004488 | FATAL | tag %d already in use | |
004489 | FATAL | tag index %d must be less than %d | |
004490 | FATAL | destructed lock %d without releasing it first | |
004491 | FATAL | must specify lock request using rl() or wl() | |
004492 | ERROR | can’t get semaphore semvals | |
004493 | FATAL | attempt to pop empty lock stack at[%d,%s] | |
004494 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004495 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004496 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004497 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004498 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004499 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004500 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004501 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004502 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004503 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004504 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004505 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004506 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004507 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004508 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004509 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004510 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004511 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004512 | ERROR | %s | 原因: リモートマシンでエラーが発生しました。 処置: リモートマシンのログを確認し、詳細を確認してください。 |
004513 | ERROR | \"%s\" may not contain white space characters | |
004516 | ERROR | must define object first with ::create() or ::fill() | |
004517 | ERROR | must define object first with ::create() or ::fill() | |
004518 | ERROR | must define object first with ::create() or ::fill() | |
004519 | ERROR | must define object first with ::create() or ::fill() | |
004520 | ERROR | must define object first with ::create() or ::fill() | |
004521 | ERROR | must define object first with ::create() or ::fill() | |
004522 | ERROR | must define object first with ::create() or ::fill() | |
004523 | ERROR | must define object first with ::create() or ::fill() | |
004524 | ERROR | must define object first with ::create() or ::fill() | |
004525 | ERROR | must define object first with ::create() or ::fill() | |
004526 | ERROR | must define object first with ::create() or ::fill() | |
004527 | ERROR | must define object first with ::create() or ::fill() | |
004528 | ERROR | must define object first with ::create() or ::fill() | |
004529 | ERROR | id \"%s\" already is use by resource \"%s\" | |
004530 | ERROR | list pointer is NULL | |
004531 | ERROR | buffer pointer is NULL | |
004532 | ERROR | list pointer is NULL | |
004533 | ERROR | event class must not be NULL | |
004534 | ERROR | event type must not be NULL | |
004535 | ERROR | list pointer is NULL | |
004538 | ERROR | event class must not be NULL | |
004539 | ERROR | event type must not be NULL | |
004540 | ERROR | list pointer is NULL | |
004542 | ERROR | event class must not be NULL | |
004543 | ERROR | event type must not be NULL | |
004544 | ERROR | must define object first with ::create() or ::fill() | |
004545 | ERROR | only local access is allowed | |
004546 | ERROR | must define object first with ::create() or ::fill() | |
004547 | ERROR | buffer pointer is NULL | |
004548 | ERROR | must define object first with ::create() or ::fill() | |
004558 | ERROR | must define object first with ::create() or ::fill() | |
004560 | ERROR | \"%s\" may not contain ^A character | |
004563 | ERROR | can’t set resource init type to ILLINIT | |
004564 | ERROR | must define object first with ::create() or ::fill() | |
004565 | ERROR | can’t set resource state type to ILLSTATE | 原因: リソースを不正な状態に配置しようとしました。 処置: リソースを不正な状態で配置しないでください。 |
004566 | ERROR | must define object first with ::create() or ::fill() | |
004567 | ERROR | split brain detected while setting resource \"%s\" to \"%s\" state (SHARED equivalency to resource \"%s\" on machine \"%s\" which is in state \"%s\"). Setting local resource ISP but aborting the operation. | 原因: マシン {machine} の SHARED イクイバレンシの プライマリリソース {resource} が {state} という状態にあるため、リソース {resource} を {state} という状態に変更できませんでした。 処置: スプリットブレインが発生しました。フェールオーバー操作は中止されました。スプリットブレインリソース(複数のシステム上の ISP)を手動で適切な状態にする必要があります。 |
004575 | ERROR | COMMAND OUTPUT: %s | |
004600 | ERROR | is_on_primary: tag name can’t be NULL | |
004603 | ERROR | no resource has an equivalency in resource hierarchy containing resource with tag \"%s\" | |
004605 | ERROR | findins: both tag and id can’t be NULL | |
004606 | ERROR | no resource instance has either a tag \"%s\" or an identifier \"%s\" | |
004607 | ERROR | no resource instance has tag \"%s\" | 原因: 指定したタグのリソースが存在しません。 処置: 有効なタグを指定するか、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004608 | ERROR | no resource instance has identifier \"%s\" | 原因: 指定した識別子のリソースが存在しません。 処置: 有効な識別子を指定するか、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004614 | ERROR | can’t set init state to ILLINIT | |
004615 | ERROR | application name argument illegal | |
004616 | ERROR | resource type name argument illegal | |
004617 | ERROR | tag argument illegal | |
004618 | ERROR | identifier argument illegal | |
004619 | ERROR | resource with tag \"%s\" already exists with identifier \"%s\" | 原因: 指定したタグ名はすでに存在します。 処置: 別のタグ名を選択してください。 |
004620 | ERROR | resource with identifier \"%s\" already exists with tag \"%s\" | 原因: 指定した識別子はすでに存在します。 処置: このリソースで使用する別の識別子を選択してください。 |
004621 | ERROR | The current number of \"%s/%s\" resources (=%d) has already reached or exceeded the maximum allowed (=%d). The \"%s\" resource can not be created at this time. To remove this restriction contact your SIOS Technology sales representative. | |
004636 | FATAL | attempt to access empty resource list | |
004637 | FATAL | index %d past range 0-%d | |
004643 | ERROR | Instance tag name is too long. It must be shorter than %d characters. | 原因: タグ名が長すぎます。 処置: 256 文字未満のタグ名を指定してください。 |
004644 | ERROR | Instance id is too long. It must be shorter than %d characters. | |
004645 | ERROR | Instance info field is too long. It must be shorter than %d characters. | |
004646 | ERROR | Tag name contains illegal characters | 原因: タグ名に不正な文字が含まれています。 処置: こちら を参照してください。 |
004657 | ERROR | undeleted instance \"%s\" depends on instance \"%s\" that is to be deleted | |
004667 | ERROR | ERROR: Could not lock child, moving on to next one\n | |
004668 | ERROR | ERROR: fork failed. continuing to next dependent\n | |
004671 | ERROR | ERROR: wait() error\n | |
004672 | ERROR | ERROR: clone %d is hung, attempting to kill it\n | |
004673 | ERROR | ERROR: Could not kill clone %d\n | |
004676 | FATAL | Lcd_shgp->roots is NULL | |
004681 | ERROR | malloc error | |
004689 | ERROR | can’t force global delete actions if remove initialization is turned off | |
004690 | ERROR | can’t specify app, typ, id or tag when top is set | |
004691 | ERROR | can’t set both tag and identifier at same time | 原因: タグと識別子が両方指定されました。 処置: タグまたは識別子の一方のみを指定してください。 |
004692 | ERROR | can’t set application when tag or id is set | |
004693 | ERROR | can’t set resource type when tag or id is set | |
004694 | ERROR | must specify at least one argument | |
004710 | FATAL | number of list elements has exceeded %d\n | |
004711 | ERROR | can’t set both tag and identifier at same time | |
004712 | ERROR | can’t set application when tag or id is set | |
004713 | ERROR | can’t set resource type when tag or id is set | |
004720 | ERROR | must specify tag to get parents | |
004721 | ERROR | must specify tag to get parents | |
004723 | ERROR | attempt to change state of resource \"%s\" from OSF state to the %s state from COMMON equivalency | |
004724 | ERROR | attempt to change state of resource \"%s\" from OSF state to the %s state from COMMON equivalent resource \"%s\" on machine \"%s\" | |
004727 | ERROR | reserve_resources(%s,%s): getpgid FAIL | |
004728 | ERROR | Lcd_shgp->roots is NULL | |
004731 | ERROR | reserve type set to LCDRESRV_NONE | |
004732 | ERROR | reserve_resources(%s,%s): setsid() FAIL | |
004734 | ERROR | Process %d in process group %d tried %d times to reserve resources but failed. | |
004735 | FATAL | reserve type set to LCDRESRV_NONE | |
004736 | FATAL | reserve type set to LCDRESRV_NONE | |
004737 | FATAL | Lcd_shgp->roots is NULL | |
004738 | FATAL | clr_res(%d): getpgid FAIL | |
004739 | ERROR | Process %d in process group %d attempted to clear reservation on resource \"%s\" by process %d in group %d expecting it to be reserved by process %d. | |
004740 | ERROR | \"%s\" may not contain ctrl characters | |
004741 | ERROR | \"%s\" may not contain ctrl characters | |
004742 | ERROR | chk_man_interv: Unable to open flag file <%s>, using default CONFIRMSODEF value %d. | |
004743 | ERROR | chk_man_interv: Invalid instruction %d in flag file <%s>, using default CONFIRMSODEF value %d. | |
004744 | ERROR | chk_man_interv: CONFIRMSODEF value apparently invalid, using %d instead | |
004745 | ERROR | failed to access lkexterrlog path=%s | 原因: システム情報を収集するユーティリティ 「lkexterrlog」にアクセスできません。 処置: パッケージ「steeleye-lk」がインストールされていること、およびユーティリティ「lkexterrlog」がアクセス可能であることを確認してください。 |
004746 | ERROR | lkexterrlog failed runret=%d cmdline=%s | 原因: システム情報の収集時に、ユーティリティ「lkexterrlog」が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004776 | ERROR | failed to read the temporal recovery policy log. | |
004779 | ERROR | resource \"%s\" with id \"%s\" has %s | |
004780 | ERROR | local recovery is disabled by the current settings. The recovery of resource \"%s\" will not be attempted. | |
004781 | ERROR | Local recovery is disabled by the temporal recovery settings. The recovery of resource \"%s\" will not be attempted. | |
004782 | ERROR | Resource \"%s\" was in state \"%s\" before event occurred – recovery will not be attempted | 原因: リソースはすでに in service です。リカバリは実行されません。 |
004783 | ERROR | Resource \"%s\" was already in state \"%s\" before event occurred | 原因: リソースはリカバリを許可するために適切な状態にありませんでした。 処置: リカバリが必要な場合は、リソースを ISP 状態にしてください。 |
004786 | ERROR | %s on failing resource \"%s\" | 原因: リソースを復旧しようとしているときにエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004787 | ERROR | Failover is blocked by current settings. MANUAL INTERVENTION IS REQUIRED | |
004788 | EMERG | failed to remove resource ‘%s’. SYSTEM HALTED. | 原因: エラーが発生し、リカバリ中にリソースをサービス休止にできませんでした。リソースが 2 つのシステムでアクティブにならないように、システムが再起動されました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004793 | ERROR | lcdsendremote transfer resource \"%s\" to \"%s\" on machine \"%s\" failed (rt=%d) | 原因: リソースとその依存関係を別のシステムへ転送中に障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。関連エラーがないかどうか、もう一方のシステムのログを確認してください。 |
004797 | ERROR | Restore of SHARED resource \"%s\" has failed | 原因: リソースのリストア中にエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004798 | ERROR | SHARED resource \"%s\" is being restored because machine \"%s\" has failed | |
004799 | ERROR | Restore of resource \"%s\" has failed – initiating inter-machine recovery | |
004805 | ERROR | ADDLIST_ERROR for \"%s\" | |
004806 | ERROR | Restore in parallel of resource \"%s\" has failed; will re-try serially | 原因: 並行リカバリが失敗しました。関連するエラーをログで確認し、レポートされている問題を解決してください。 処置: 処置は必要ありません。システムはシリアル形式でリカバリを続行します。リカバリが失敗した場合は、復旧できなかったリソースに関連するエラーメッセージを確認し、対応策を探してください |
004810 | ERROR | Attempting serial recovery due to possible parallel recovery failure | |
004811 | WARN | The sendevent resource lists are too large for the %d byte buffer. The resource length is: %d. | |
004812 | ERROR | malloc failure | |
004813 | ERROR | lock_open_trp_lock(): failed to open file: %s. | |
004814 | ERROR | increase_trs_buffer(): failed to reallocate buffer for temporal_recovery_stamp. | |
004815 | ERROR | add_entry_into_trs_buffer(): failed to malloc initial buf for temporal_recovery_stamp. | |
004816 | ERROR | add_entry_into_trs_buffer(): failed to increase buf for temporal_recovery_stamp. | |
004817 | ERROR | read_temporal_recovery_policy(): fail to read policy configurations. | |
004819 | ERROR | read_temporal_recovery_log(): failed to fopen file: %s. fopen() %s. | 原因: メモリにロードするために一時リカバリログファイル {file} を開こうとしたところ、エラー {error} で失敗しました。 処置: システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004820 | ERROR | read_temporal_recovery_log(): failed to malloc initial buf for temporal_recovery_stamp. | 原因: ログ情報を格納するためのメモリを取得しようとしている際に、一時リカバリログ情報のメモリへのロードに失敗しました。 処置: システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004821 | ERROR | read_temporal_recovery_log(): failed to reallocate buffer for temporal_recovery_stamp. | 原因: ログ情報の格納に必要なメモリサイズを増やそうとしている際に、一時リカバリログ情報のメモリへのロードに失敗しました。 処置: システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004822 | ERROR | write_temporal_recovery_log(): failed to open file: %s. | 原因: 一時ファイル {temporary name} のオープンに失敗したため、一時リカバリログファイルの更新が終了しました。 処置: システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004823 | ERROR | rename(%s, %s) failed. | 原因: 一時ファイル {temporary name} を実際のログファイル {real name} に名称変更できなかったため、一時リカバリログファイルの更新が終了しました。 処置: システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004827 | ERROR | %s: [%d,%s] ERROR IN LOCK FUNCTIONS | |
004829 | FATAL | err=%s line=%d Semid=%d numops=%zd perror=%s | 原因: セマフォ ID {semaphore} の変更がエラー {err} およびエラーメッセージの説明 {perror} で失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004860 | ERROR | restore ftok failed for resource %s with path %s | 原因: パス {path} を使用するリソース {tag} のセマフォ操作で使用する IPC キーの生成に失敗しました。これはシステムエラーです。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004861 | ERROR | semget failed with error %d | 原因: インスタンスファイルに関連付けられたセマフォ識別の取得に失敗しました。これはシステムエラーです。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004862 | ERROR | semctl SEMSET failed with error %d | 原因: リカバリプロセス中に使用されるセマフォの作成と初期化がエラー {error number} で失敗しました。これはシステムエラーです。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004863 | ERROR | semop failed with error %d | 原因: リカバリプロセス中に使用されるセマフォの設定がエラー {error number} で失敗しました。これはシステムエラーです。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004864 | ERROR | semctl SEMSET failed with error %d | 原因: リカバリプロセス中に使用されるセマフォの解放がエラー {error number} で失敗しました。これはシステムエラーです。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004865 | ERROR | restore action failed for resource %s (exit: %d) | 原因: リソース {tag} を In Service にする操作が失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。レポートされているエラーを修正し、操作を再試行してください。 |
004872 | ERROR | Remote remove of resource \"%s\" on machine \"%s\" failed (rt=%d) | 原因: ローカルシステムに転送するために {server} でリソース {tag} をサービス休止にする要求が失敗しました。 処置: ローカルシステムで、隣接するログメッセージから詳細を確認してください。また、リソースを削除するには、{server} のログメッセージで障害に関する詳細を確認してください。 |
004875 | ERROR | remote remove of resource \"%s\" on machine \"%s\" failed | 原因: ローカルシステムに転送するために {server} でリソース {tag} をサービス休止にする要求が失敗しました。 処置: ローカルシステムで、隣接するログメッセージから詳細を確認してください。また、リソースを削除するには、{server} のログメッセージで障害に関する詳細を確認してください。 |
004876 | ERROR | remote remove of resource \"%s\" on machine \"%s\" failed | 原因: ローカルシステムに転送するために {server} でリソース {tag} をサービス休止にする要求が失敗しました。 処置: ローカルシステムで、隣接するログメッセージから詳細を確認してください。また、リソースを削除するには、{server} のログメッセージで障害に関する詳細を確認してください。 |
005000 | ERROR | poll_handler::get events – polling | |
005001 | WARN | poll_hand::get_events() spent %ld secs\n | |
005002 | WARN | poll_handler::get_events(): revents = 0x%04x\n | |
005003 | WARN | pid %d: | |
005004 | ERROR | poll_handler | |
005005 | WARN | fd %d: | |
005006 | ERROR | setting socket process owner | |
005007 | WARN | fd %d: | |
005008 | ERROR | getting current socket flags | |
005009 | WARN | fd %d: | |
005010 | ERROR | setting socket for asynchronous notification | |
005011 | WARN | poll_hand::set_poll() spent %ld secs\n | |
005012 | WARN | fd %d: | |
005013 | ERROR | getting current socket flags | |
005014 | WARN | fd %d: | |
005015 | ERROR | unsetting socket for asynchronous notification | |
005016 | WARN | poll_hand::unset_poll() spent %ld secs\n | |
005017 | WARN | po_box::dispatch_msg(): _msg_list.size = %d, _req_list.size = %d\n | |
005018 | WARN | po_box::dispatch_msg(): sending ctl part of message, size=%zu\n | |
005019 | WARN | WARNING:po_box::dispatch_msg():_bytes_out wrapped around\n | |
005020 | WARN | po_box::dispatch_msg(): sending data part of message, size=%zu\n | |
005021 | WARN | sent message to driver\n | |
005022 | WARN | po_box request for non-existent driver: %s:%s to %s:%s (%s/%u) (%d/%d)\n | |
005023 | WARN | WARNING:po_box::put():_bytes_in wrapped around\n | |
005024 | WARN | po_box::put_msg – bad command %s\n | |
005025 | WARN | po_box::put_msg – bad command %s\n | |
005026 | WARN | ctl_po_box %s got bad string (%d) size %ld: %s\n | |
005027 | WARN | add_conn dev(%s) lipa(%s)\n | |
005028 | WARN | postoffice remove sys/dev %s/%s\n | |
005029 | ERROR | fopen of /tmp/mbox_dbg | |
005030 | WARN | tli_fdget_i[%u] – device(%s)\n | |
005031 | WARN | tli_fdget_i::d’tor spent %ld secs\n | |
005032 | WARN | tli_fdget_i::execute get_events() spent %ld secs\n | |
005033 | WARN | tli_fdget_i[%u] running, events=0x%x\n | |
005034 | WARN | tli_fdget_i[%u]::execute: accept device (%s)\n | |
005035 | ERROR | tli_fdget_i::execute accept fails | |
005036 | WARN | tli_fdget_i::execute accept() spent %ld secs\n | |
005037 | WARN | getnameinfo() failed %s\n | |
005038 | WARN | tli_fdget_i[%u]::execute device(%s) ripa(%s) lipa(%s)\n | |
005039 | WARN | tli_fdget_i::execute event 0x%hx\n | |
005040 | ERROR | tli_fdget_i::execute – getaddrinfo | |
005041 | ERROR | tli_fdget_i::execute – creating socket | |
005042 | WARN | tli_fdget_i::execute my_socket() spent %ld secs\n | |
005043 | ERROR | setsockopt setting SO_REUSEADDR | |
005044 | WARN | tli_fdget_i::execute t_bind() spent %ld secs\n | |
005045 | ERROR | tli_fdget_i::execute unable to establish a listener port | 原因: ネットワーク接続を適切に設定できませんでした。 処置: すべてのネットワークハードウェアおよびドライバが適切に設定されていることを確認してください。それでもこのメッセージが表示され、リソースを in service にできない場合は、サポートに問い合わせてください。 |
005046 | WARN | tli_fdget_i::execute bind() spent %ld secs\n | |
005047 | ERROR | tli_fdget_i::execute listen failed | |
005049 | WARN | tli_fdget_o[%u] to %s on dev %s local ip %s remote ip %s\n | |
005050 | WARN | tli_fdget_o[%u] to %s on dev %s dies\n | |
005051 | WARN | tli_fdget_o::execute get_events() spent %ld secs\n | |
005052 | WARN | tli_fdget_o[%u] running, events=0x%x\n | |
005053 | ERROR | tli_fdget_o::execute – get SO_ERROR socket option | |
005054 | WARN | tli_fdget_o[%u]::execute – established outbound connection to %s at %s\n | |
005055 | ERROR | tli_fdget_o::execute – async connect failure | 原因: ネットワーク接続を適切に設定できませんでした。 処置: すべてのネットワークハードウェアおよびドライバが適切に設定されていることを確認してください。それでもこのメッセージが表示され、リソースを in service にできない場合は、サポートに問い合わせてください。 |
005056 | ERROR | COMMAND OUTPUT: %s | |
005057 | WARN | tli_fdget_o[%u] runs in alarm loop\n | |
005058 | ERROR | tli_fdget_i::execute – getaddrinfo | |
005059 | ERROR | tli_fdget_o::execute – creating socket | |
005060 | WARN | tli_fdget_o::execute my_socket() spent %ld secs\n | |
005061 | ERROR | tli_fdget_o::execute – bind socket | 原因: ネットワーク接続を適切に設定できませんでした。 処置: すべてのネットワークハードウェアおよびドライバが適切に設定されていることを確認してください。それでもこのメッセージが表示され、リソースを in service にできない場合は、サポートに問い合わせてください。 |
005062 | WARN | tli_fdget_o::execute bind() spent %ld secs\n | |
005063 | ERROR | LifeKeeper: can’t get service %s, protocol %s\n | |
005065 | ERROR | tli_fdget_o::execute – connect | |
005066 | ERROR | COMMAND OUTPUT: %s | |
005067 | WARN | tli_fdget_o::execute my_connect() spent %ld secs\n | |
005068 | WARN | vs_driver[%u]::execute(): Entering\n | |
005069 | WARN | vs_driver[%u]::execute(): Before loop, ready()=%d, vstate()=%d\n | |
005070 | WARN | vs_driver[%u]::execute(state=_vrhead): Invalid request, going away.\n | |
005071 | WARN | vs_driver[%u]::execute(): Receiving data of size % | |
005072 | WARN | vs_driver[%u]::execute(): Receive complete.\n | |
005073 | WARN | vs_driver[%u]::execute(): Bottom of loop, ready()=%d, vstate()=%d\n | |
005074 | WARN | vs_driver[%u]::execute(): Leaving\n | |
005075 | WARN | vs_driver[%u]::send: ready()=%d, vstate()=%d\n | |
005076 | WARN | lcm_driver[%u]::send(): lstate()=%d\n | |
005077 | WARN | lcm_handler[%u]::execute(%d,%p,%p): Entering\n | |
005078 | WARN | lcm_hand::exec() spent %ld secs\n | |
005079 | WARN | lcm_handler::run(): Got request %d for sys %s, mailbox %s\n | |
005080 | WARN | driver %u forwarding request to %u, size %zu\n | |
005081 | WARN | lcm_handler::handle_send_msg(): Message from %s:%s to %s:%s\n | |
005082 | WARN | forwarding message to %s to dev null\n | |
005083 | WARN | driver %u got a ping at %ld\n | |
005084 | WARN | handle forward driver %u driver %u gone!\n | |
005085 | WARN | _add_driver\n | |
005086 | WARN | ..find other\n | |
005087 | WARN | ..find this\n | |
005088 | WARN | .. driver’s lipa(%s) ripa(%s) sys(%s) dev (%s)\n | |
005089 | WARN | .. foundother(%p) foundthis(%p) _add_driver(%x)\n | |
005090 | WARN | system_driver::add_driver: cmd=%s\n | |
005091 | WARN | did add_driver event for %ld @%ld\n | |
005092 | WARN | .. exit _add_driver ret val(%d)\n | |
005093 | WARN | _add_driver(tli_fdget_i %p)\n | |
005094 | WARN | ..lst(%p)\n | |
005095 | WARN | exit _add_driver ret val(1)\n | |
005096 | WARN | _add_driver(tli_fdget_o %p)\n | |
005097 | WARN | ..lst(%p)\n | |
005098 | WARN | exit _add_driver ret val(1)\n | |
005099 | WARN | rm_driver %ld – sys %s, dev %s\n | |
005100 | WARN | rm_driver %u – sys %s, dev %s @%ld\n | |
005102 | WARN | rm_driver – hangup on driver 0\n | |
005103 | WARN | exit rm_driver 1\n | |
005104 | WARN | exit rm_driver 0\n | |
005105 | WARN | rm_driver %u – sys %s, dev %s @%ld\n | |
005107 | WARN | rm_driver – hangup on driver 0\n | |
005108 | WARN | system_driver::rm_driver: cmd=%s\n | |
005109 | WARN | did remove_driver event for %u @%ld\n | |
005110 | WARN | rm driver: other driver @%p (%u)\n | |
005111 | WARN | _add_odriver_event(system %s driver %s)\n | |
005112 | WARN | exit _add_odriver_event(%d)\n | |
005113 | WARN | add_odriver(%p)\n | |
005114 | WARN | exit add_odriver(%d)\n | |
005115 | WARN | _add_idriver_event(system %s driver %s)\n | |
005116 | WARN | exit _add_idriver_event(%d)\n | |
005117 | WARN | add_idriver(%p)\n | |
005118 | WARN | exit add_idriver(%d)\n | |
005119 | WARN | rm_odriver(system %s driver %s)\n | |
005120 | WARN | exit rm_odriver %d\n | |
005121 | WARN | rm_odriver_event(system %s driver %s)\n | |
005122 | WARN | exit rm_odriver_event %d\n | |
005123 | WARN | rm_idriver(system %s driver %s)\n | |
005124 | WARN | exit rm_idriver %d\n | |
005125 | WARN | rm_idriver_event(system %s driver %s)\n | |
005126 | WARN | exit rm_idriver_event %d\n | |
005127 | WARN | find_odriver\n | |
005128 | WARN | find_get_odriver\n | |
005129 | WARN | exit find_get_odriver %p\n | |
005130 | WARN | find_idriver\n | |
005131 | WARN | find driver, sys %s, idriver %ld, odriver %ld\n | |
005132 | WARN | system_driver::add_connect: adding connection to sys %s, device %s\n | |
005133 | WARN | removing connection to sys %s, device %s\n | |
005134 | WARN | finding connection to sys %s, device %s\n | |
005135 | WARN | found connection\n | |
005136 | WARN | didn’t find connection\n | |
005137 | WARN | WARNING:ser_num::ser_num():global_num about to wrap around\n | |
005138 | WARN | WARNING:ser_num::ser_num(ser_num&):global_num about to wrap around\n | |
005139 | WARN | sig_hold %u, attempt to assign invalid signal %d\n | |
005141 | WARN | invalid signal %d\n | |
005142 | WARN | sys %.8s, box %.8s\n | |
005143 | WARN | lcm_pipe::open – socket() failed, err %d, pid %d\n | |
005144 | WARN | lcm_pipe::open – connect() failed, err %d, pid %d\n | |
005145 | ERROR | opening the file | 原因: パイプを開く、または作成することができませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
005146 | WARN | In lcm_pipe[%u]::execute(%d,%p,%p)\n | |
005147 | WARN | LCM heartbeat interval = %ld\n | |
005148 | WARN | LCM missed heartbeat limit = %u\n | |
005149 | WARN | LCM missed heartbeat limit = %u\n | |
005150 | WARN | tli_handler %u dev %s lipa(%s) ripa(%s)\n | |
005151 | WARN | new tli_handler %u on dev %s\n | |
005152 | WARN | tli_handler %ld to %s on dev %s\n | |
005153 | WARN | new tli_handler %u to %s on dev %s\n | |
005154 | WARN | creating new tli_fdget_o on %s to %s\n | |
005155 | WARN | tli_hand::d’tor shutdown() spent %ld secs\n | |
005156 | WARN | openpoll fd %d\n | |
005157 | WARN | done closing fd\n | |
005158 | WARN | tli_hand::exec t_look() spent %ld secs\n | |
005160 | WARN | tli_handler %u going away (POLLERR) at %ld lastread=%ld lastping=%ld\n | |
005162 | WARN | tli_hand::exec %u send a ping at %ld\n | |
005163 | WARN | tli_handler::run %u to %s on dev %s\n | |
005164 | ERROR | tli_handler::handle-error:sending/receiving data message | 原因: メッセージの送信または受信に失敗しました。 処置: 詳細については、隣接するログメッセージを確認してください。これは一時的なエラーの可能性がありますが、このエラーが引き続き発生し、サーバーが通信できない場合は、サーバーのネットワーク構成を確認してください。 |
005165 | WARN | errno %d\n | 原因: メッセージの送信または受信に失敗しました。 処置: 詳細については、隣接するログメッセージを確認してください。これは一時的なエラーの可能性がありますが、このエラーが引き続き発生し、サーバーが通信できない場合は、サーバーのネットワーク構成を確認してください。 |
005166 | WARN | poll 0x%hx\n | 原因: メッセージの送信または受信に失敗しました。 処置: 詳細については、隣接するログメッセージを確認してください。これは一時的なエラーの可能性がありますが、このエラーが引き続き発生し、サーバーが通信できない場合は、サーバーのネットワーク構成を確認してください。 |
005167 | WARN | handler for sys %s\n | 原因: メッセージの送信または受信に失敗しました。 処置: 詳細については、隣接するログメッセージを確認してください。これは一時的なエラーの可能性がありますが、このエラーが引き続き発生し、サーバーが通信できない場合は、サーバーのネットワーク構成を確認してください。 |
005168 | WARN | tli_hand::xmit send() spent %ld secs\n | |
005169 | WARN | tli_hand::rcv recv() spent %ld secs\n | |
005170 | WARN | sig_execute::_handler_func – sig=%d\n | |
005171 | WARN | sig_execute::_handler_func – SIGPOLL si_code=0x%x, si_band=0x%lx, si_fd=%d\n | |
005172 | ERROR | fdget::fdget – creating socket | |
005173 | ERROR | fdget::fdget – binding socket | |
005174 | ERROR | fdget::fdget – listen on socket | |
005175 | WARN | fdget::fdget() spent %ld secs\n | |
005176 | WARN | fdget dtor deleting fd %d\n | |
005177 | WARN | fdget::fdget d’tor spent %ld secs\n | |
005178 | ERROR | fdget::execute – accepting connection | |
005179 | WARN | fdget::exec() spent %ld secs\n | |
005180 | WARN | garbage_collection: unknown message\n | |
005181 | WARN | Normal Data:\n | |
005182 | ERROR | garbage_collection: get normal | |
005183 | WARN | cntl[%d]:\n | |
005188 | WARN | \n | |
005202 | WARN | .. new add_tli_handler _ptr (system – %s device – %s)\n | |
005203 | WARN | entering todo: current _ptr (system – %s device – %s)\n | |
005204 | WARN | deleting add_tli_handler\n | |
005205 | WARN | in %u, out %u, me %u\n | |
005206 | WARN | idriver last_alarm %ld, mine %ld\n | |
005207 | WARN | odriver %u lastread %ld, mine (%u) %ld\n | |
005208 | WARN | adding driver with event(tli_handler-%u)\n | |
005209 | WARN | i_m_running: @%ld\n | |
005210 | WARN | incoming mailbox::is_empty – send 1 failed\n | |
005211 | WARN | incoming mailbox::remove – failed\n | |
005212 | WARN | incoming_mailbox::receive(), before send\n | |
005213 | WARN | incoming_mailbox::receive(), before 1st receive\n | |
005214 | WARN | incoming_mailbox::receive(), before 2nd receive\n | |
005215 | WARN | incoming_mailbox::receive(), after 2nd receive\n | |
005216 | WARN | outgoing_mailbox::can_talk – %s\n | |
005217 | WARN | outgoing_mailbox::can_talk – %s\n | |
005218 | WARN | outgoing_mailbox::can_talk – %s\n | |
005219 | WARN | outgoing_mailbox::can_talk – %s\n | |
005220 | WARN | outgoing_mbox::send can’t send request\n | |
005221 | WARN | attempt to send null message\n | |
005222 | WARN | outgoing_mailbox::send – can’t send data\n | |
005223 | WARN | outgoing_mailbox::send – receive failed\n | |
005224 | WARN | outgoing_mailbox::send – receive garbled\n | |
005225 | WARN | so_driver::handle_error: sending/receiving data message errno %d: %s | 原因: メッセージの送受信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もありますが、このエラーが続き、サーバが通信できない場合は、サーバのネットワーク設定を確認してください。 |
005226 | WARN | so_driver[%u]::xmit write() writing %zu bytes: <%s> | |
005227 | WARN | so_driver::xmit write() failed, errno = %d | |
005228 | WARN | so_driver::xmit write() wrote %d bytes: <%s> | |
005229 | WARN | so_driver::xmit write() spent %ld secs | |
005230 | WARN | so_driver::rcv read() failed, errno = %d | |
005231 | WARN | so_driver::rcv read() received %d bytes: <%s> | |
005232 | WARN | so_driver::rcv getmsg() spent %ld secs | |
005233 | WARN | In so_driver[%u]::execute(%d,…) | |
005234 | WARN | In so_driver[%u]::execute(): No action taken | |
005235 | WARN | found tcp connection to iwstp\n | |
005236 | WARN | didn’t find tcp connection to iwstp\n | |
005237 | WARN | lcm_handler retry send from %s:%s to %s:%s (%d)\n | |
005238 | WARN | detected duplicate request from %s:%s to %s:%s\n | |
005239 | WARN | lcm_handler retry timer set to %d based on lcd remote timeout of %d s (%d s) | |
005240 | WARN | lcm_handler retry count/time (%d/%zu) has exceeded the maximum. Giving up…\n | |
005241 | WARN | dup_list: %s %s %s %s %d %d (%d) | |
005242 | WARN | clean up stale dup_list entry (%d s): %s:%s to %s:%s last: %s | |
005243 | WARN | add new dup_list entry %s:%s to %s:%s %d %d (%d | |
005244 | WARN | closing fd %d\n | |
005245 | WARN | openpoll fd %d\n | |
006009 | ERROR | fork failed: %s | |
006012 | ERROR | quickCheck script ‘%s’ (%d) failed to exit after %u seconds. Forcibly terminated. Please examine the script or adjust the LKCHECKINTERVAL parameter in %s. | 原因: quickCheck スクリプトの処理に時間がかかりすぎているか、スクリプトがハングしています。 処置: メッセージテキストに記載されている手順を実行してください。 |
006014 | ERROR | LKCHECKINTERVAL parameter is too short. It is currently set to %d seconds. It should be at least %ld seconds. Please adjust this parameter in %s and execute ‘kill %d’ to restart the lkcheck daemon. | |
006028 | ERROR | %s | |
006029 | ERROR | Usage:%s [-?] [-f frequency] | |
006030 | ERROR | -? print this help summary | |
006031 | ERROR | -f number test frequency in seconds | |
006102 | ERROR | COMMAND OUTPUT: $LKROOT/bin/sendevent | 原因: これは、「sendevent」(イベント生成)コマンドの結果です。 処置: 隣接するログメッセージで詳細を確認してください。 |
006103 | ERROR | COMMAND OUTPUT: $LKROOT/bin/sendevent | 原因: これは、「sendevent」(イベント生成)コマンドの結果です。 処置: 隣接するログメッセージで詳細を確認してください。 |
006104 | ERROR | COMMAND OUTPUT: $LKROOT/bin/sendevent | 原因: これは、「sendevent」(イベント生成)コマンドの結果です。 処置: 隣接するログメッセージで詳細を確認してください。 |
006502 | ERROR | CPU usage has exceeded the threshold ($threshold%) for $count check cycles. | |
006504 | ERROR | Could not open /proc/meminfo | |
006505 | ERROR | Memory usage has exceeded the threshold ($threshold%) for $count check cycles. | |
006508 | ERROR | [$SUBJECT event] mail returned $err | |
006509 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
006511 | ERROR | snmptrap returned $err for Trap 190 | |
006512 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
006514 | ERROR | [$SUBJECT event] mail returned $err | |
006515 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
006517 | ERROR | snmptrap returned $err for Trap 200 | |
006518 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
006520 | ERROR | Failed to update error count in $cpu_file: $! | |
006521 | ERROR | Failed to update error count in $mem_file: $! | |
006523 | ERROR | The SNHC_CPUCHECK_THRESHOLD setting is not valid. Please set SNHC_CPUCHECK_THRESHOLD to a value between 10 and 99 in /etc/default/LifeKeeper. If not set, the value will default to 99. | |
006524 | ERROR | The SNHC_CPUCHECK_TIME setting is not valid. Please set SNHC_CPUCHECK_TIME to a value between 1 and 100 in /etc/default/LifeKeeper. If not set, the value will default to 1. | |
006525 | ERROR | The SNHC_MEMCHECK_THRESHOLD setting is not valid. Please set SNHC_MEMCHECK_THRESHOLD to a value between 10 and 99 in /etc/default/LifeKeeper. If not set, the value will default to 99. | |
006526 | ERROR | The SNHC_MEMCHECK_TIME setting is not valid. Please set SNHC_MEMCHECK_TIME to a value between 1 and 100 in /etc/default/LifeKeeper. If not set, the value will default to 1. | |
006528 | ERROR | Could not open /proc/stat | |
006529 | ERROR | Could not open /proc/stat | |
006530 | ERROR | Could not use $tmp_path | |
007053 | ERROR | malloc failed. Assume that it is a monitoring target device. | |
007058 | ERROR | %s: %s failed on ‘%s’, result:%d, Sense Key = %d. | 原因: SCSI デバイスをリザーブできませんでした。またはステータスを確認できませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバによってリザーブされているためです。 処置: 隣接するログメッセージで詳細を確認し、リソースが適切に処理されていることを確認してください。 |
007059 | ERROR | %s: %s failed on ‘%s’, result:%d. | 原因: SCSI デバイスをリザーブできませんでした。またはステータスを確認できませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバによってリザーブされているためです。 処置: 隣接するログメッセージで詳細を確認し、リソースが適切に処理されていることを確認してください。 |
007060 | EMERG | %s: failure on device ‘%s’. SYSTEM HALTED. | 原因: SCSI デバイスをリザーブできませんでした。またはステータスを確認できませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバによってリザーブされているためです。サーバはリブート/停止されます。 処置: ストレージが適切に動作していることを確認し、適切に動作している場合は、リソースが適切に処理されており、別のサーバで in service になっていることを確認してください。 |
007064 | ERROR | %s: sendevent failed for %s: ‘%s’ | |
007066 | ERROR | %s: sendevent failure on device ‘%s’. | |
007072 | ERROR | %s: failed to open SCSI device ‘%s’, initiate recovery. errno=0x%x, retry count=%d. | 原因: 保護された SCSI デバイスを開くことができませんでした。デバイスに障害が発生しているか、システムからデバイスが削除されている可能性があります。 処置: システムが停止されるか、バックアップノードへのフェイルオーバが開始されます。この場合のデフォルトアクションはフェイルオーバですが、SCSIERROR の設定で変更可能です。 |
007073 | ERROR | %s: failed to open SCSI device ‘%s’, RETRY. errno=%d, retry count=%d. | 原因: 保護された SCSI デバイスを開くことができませんでした。デバイスに障害が発生しているか、システムからデバイスが削除されている可能性があります。 処置: このエラーは致命的なものではありません。操作は 5 秒以内で再試行されます。問題が続行する場合、システムは停止またはリソースのフェイルオーバを実行します。 |
007075 | ERROR | %s: RESERVATION CONFLICT on SCSI device ‘%s’. ret=%d, errno=0x%x, retry count=%d. | 原因: 別のサーバと競合しているため、SCSI デバイスをリザーブできませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバによってリザーブされているためです。 処置: 隣接するログメッセージで詳細を確認し、リソースが適切に処理されていることを確認してください。 |
007076 | ERROR | %s: DEVICE FAILURE on SCSI device ‘%s’, RETRY. ret=%d, errno=0x%x, retry count=%d. | |
007077 | ERROR | %s: DEVICE FAILURE on SCSI device ‘%s’, initiate recovery. ret=%d, errno=0x%x, retry count=%d. | 原因: SCSI デバイスをリザーブできませんでした。またはステータスを確認できませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバによってリザーブされているためです。 処置: 隣接するログメッセージで詳細を確認し、リソースが適切に処理されていることを確認してください。 |
007078 | ERROR | %s: DEVICE FAILURE on SCSI device ‘%s’, RETRY. ret=%d, errno=0x%x, retry count=%d. | 原因: SCSI デバイスをリザーブできませんでした。またはステータスを確認できませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバによってリザーブされているためです。 処置: 隣接するログメッセージで詳細を確認し、リソースが適切に処理されていることを確認してください。 |
007091 | ERROR | %s: device checking thread (id=%d) for device ‘%s’ returned an unexpected error. return %d, errno=%d, hangcount=%d | |
008504 | ERROR | LKSCSI_Open: unable to get unique ID for %s | |
008506 | ERROR | LKSCSI_Open: RESERVATIONS has invalid setting ‘%s’. Default setting used. | |
008507 | ERROR | LKSCSI_Open: valid settings: ‘ioctl’ and ‘none’. | |
008508 | ERROR | LKSCSI_Open: valid setting: ‘ioctl’. | |
008509 | ERROR | LKSCSI_Open: SUPPORT_PAGES has invalid setting ‘%s’. Default setting used. | |
008510 | ERROR | LKSCSI_Open: valid settings: ‘DONT_ASK’ and ‘CHECK_PAGES’. | |
008511 | ERROR | LKSCSI_Open: ADD_LUN_TO_DEVICE_ID has invalid setting ‘%s’. Default setting used. | |
008512 | ERROR | LKSCSI_Open: valid settings: ‘TRUE’ and ‘FALSE’. | |
008513 | ERROR | LKSCSI_Open: FULL_ID_MATCH has invalid setting ‘%s’. Default setting used. | |
008514 | ERROR | LKSCSI_Open: valid settings: ‘TRUE’ and ‘FALSE’. | |
008515 | ERROR | LKSCSI_Open: ioctlMethod set to ‘SEND_CMD’. | |
008516 | ERROR | LKSCSI_Open: ioctlMethod set to ‘SGIO_SD_NODE’. | |
008517 | ERROR | LKSCSI_Open: ioctlMethod set to ‘SGIO_SG_NODE’. | |
008518 | ERROR | LKSCSI_Open: ioctlMethod set to ‘QUERY_DRIVER’. | |
008519 | ERROR | LKSCSI_Open: ioctlMethod set to ‘QUERY_SG’. | |
008520 | ERROR | LKSCSI_Open: ioctlMethod has invalid setting ‘%s’. Default setting ‘query’ used. | |
008521 | ERROR | LKSCSI_Open: valid settings: ‘SEND_CMD’, ‘SGIO_SD’, ‘SGIO_SG’, and ‘QUERY’. | |
008524 | ERROR | LKSCSI_Open: internal error, GetIDLUN on %s failed with %d. | |
008534 | ERROR | LKSCSI_Open: unable to map %s to a generic node | |
008535 | ERROR | LKSCSI_Open: fcntl: ioctlMethod file lock failed. errno = %d. | |
008536 | ERROR | LKSCSI_Open: unlock of ioctlMethod file failed. errno = %d. | |
008537 | ERROR | LKSCSI_Open: fcntl: ioctlMethod file lock failed. errno = %d. | |
008538 | ERROR | LKSCSI_Open: unlock of ioctlMethod file failed. errno = %d. | |
008539 | ERROR | LKSCSI_Open: setIoctlMethod: open failed on %s. | |
010000 | WARN | flg_list -d $i took more than $pswait seconds to complete… | |
010001 | ERROR | flag $flag not present, switchovers may occur. | |
010002 | WARN | flag $flag not present, send message again. | 原因: このメッセージは、再試行される未完のプロセスを示します。 処置: 隣接するログメッセージで、繰り返されているエラーを確認してください。 |
010003 | ERROR | COMMAND OUTPUT: $LKBIN/ins_remove | 原因: このメッセージは「ins_remove」コマンドの結果の一部です。 処置: 隣接するログメッセージで詳細を確認してください。これは実際にはエラーではない可能性もあります。 |
010004 | EMERG | Cannot find the $LKROOT/config/lkstart-hook file. You must install the LifeKeeper Distribution Enabling package before starting $PRODUCT. | 原因: このエラーは、直接 rpm を使用して LifeKeeper をインストールするか、不注意で rpm をシステムから削除することで発生します。 処置: インストールメディアの「setup」スクリプトを使用して LifeKeeper を再インストールしてください。 |
010005 | EMERG | $PRODUCT can not be started in init runlevel $init_state | |
010006 | WARN | flg_list -d $i took more than $pswait seconds to complete… | 原因: サーバのフラグリスト処理の時間が予想以上にかかりました。別のサーバとの接続に問題が発生している可能性もあります。 処置: 隣接するログメッセージで詳細を確認してください。 |
010007 | ERROR | flag $flag not present, switchovers may occur. | 原因: クラスタ内のいずれかのサーバに、現在のサーバからのフェイルオーバ操作の不許可を指示できませんでした。 処置: 隣接するログメッセージで詳細を確認し、クラスタで予期しない動作を監視してください。 |
010008 | WARN | flag $flag not present, send message again. | 原因: プロセスは不完全ですが、再試行されます。 処置: 隣接するログメッセージで詳細を確認し、繰り返されている警告/エラーをチェックしてください。 |
010023 | FATAL | LifeKeeper failed to initialize properly. | 原因: LifeKeeper を起動しようとしている間に、致命的なエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
010024 | ERROR | Resource “%s” already exists | |
010025 | ERROR | Unable to get a unique tag name on server “%s” for template resource “%s” | 原因: ストレージリソースの作成プロセスで適合するタグを自動的に生成できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。他のエラーがない場合は、操作を再試行してください。 |
010027 | ERROR | Error creating resource $DISK | |
010030 | ERROR | Create resource dependency “%s” to “%s” failed on “%s” | |
010031 | ERROR | Failed to set resource instance state for “%s” on “%s” | |
010033 | ERROR | perform_action failed $DISKACTION of $DISKTAG on $MACH. | |
010034 | FATAL | Unable to start lcm. | 原因: ソフトウェアのコアコンポーネントを開始できませんでした。 処置: 隣接するログメッセージで詳細を確認し、レポートされている問題を解決してください。 |
010035 | FATAL | Unable to start ttymonlcm. | |
010036 | ERROR | ||
010038 | WARN | Waiting for LifeKeeper core components to initialize has exceeded 10 seconds. Continuing anyway, check logs for further details. | 原因: ソフトウェアの一部が、予想よりも起動に時間がかかっています。 処置: メッセージテキストに記載されている手順を実行してください。 |
010039 | WARN | Waiting for LifeKeeper core components to initialize has exceeded 10 seconds. Continuing anyway, check logs for further details. | 原因: ソフトウェアの一部が、予想よりも起動に時間がかかっています。 処置: メッセージテキストに記載されている手順を実行してください。 |
010040 | FATAL | Unable to start lcd. | |
010043 | ERROR | An equivalency for the tag $PARENT_TAG does not exist on server $SERVER | |
010044 | ERROR | An equivalency for the tag $CHILD_TAG does not exist on server $SERVER | |
010046 | ERROR | The dependency creation failed on server $SERVER:" `cat $TEMP_FILE` | 原因: 所定のサーバで依存関係を作成できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010050 | ERROR | An equivalency for the tag $PARENT_TAG does not exist on server $SERVER" | |
010051 | ERROR | An equivalency for the tag $CHILD_TAG does not exist on server $SERVER | |
010053 | ERROR | The dependency deletion failed on server $SERVER:" `cat $TEMP_FILE` | |
010063 | ERROR | $REMSH error | 原因: 別のサーバからデータをバックアップする要求が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010064 | ERROR | Possible Configuration error: More than one LifeKeeper version is installed on this host | |
010076 | FATAL | Usage: hry_setpri [-d server] -t (comma separated root tag list) -p priority [-q] hry_setpri [-d server] -t (comma separated root tag list) -l | |
010077 | FATAL | Usage: hry_setpri [-d server] -t (comma separated root tag list) -p priority [-q] hry_setpri [-d server] -t (comma separated root tag list) -l | |
010078 | FATAL | Usage: hry_setpri [-d server] -t (comma separated root tag list) -p priority [-q] hry_setpri [-d server] -t (comma separated root tag list) -l | |
010079 | FATAL | No equivalencies were found for server "%s". Verify that the server name and tag names are correct. | |
010080 | FATAL | No equivalencies were found for server "%s". Verify that the server name and tag names are correct. | |
010082 | WARN | lkswitchback($MACH): Unable to obtain automatic switchback lock — trying again in ${interval} minutes | |
010083 | WARN | COMMAND OUTPUT: $LKROOT/bin/lkswitchback | |
010085 | ERROR | lkswitchback($MACH): Automatic switchback of \"$loctag\" failed | 原因: リソースが予想どおりにスイッチバックされませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010087 | EMERG | The uname of the system has been changed, please change it back to its original setting before starting $PRODUCT. | |
010088 | FATAL | Internal usage error in call to reorder_priorities. | |
010089 | FATAL | Internal usage error in call to reorder_priorities. | |
010090 | ERROR | create device instance failure | |
010091 | ERROR | Resource instance \"$CDEVTAG\" with id \"$DEV\" already exists on machine \"$MACH\ | |
010092 | ERROR | create device instance failure | |
010093 | ERROR | create device instance failure | |
010095 | ERROR | create device instance failure | |
010096 | ERROR | create device instance failure | |
010101 | ERROR | create device instance failure `cat /tmp/V2$$` | |
010102 | ERROR | admin machine not specified | 原因: 「getlocks」操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
010103 | ERROR | lock id string not specified | |
010104 | ERROR | lock file not specified | |
010105 | ERROR | No systems registered with LifeKeeper | |
010106 | ERROR | could not get locks since machine $m is dead | |
010107 | WARN | Lock for $m is ignored because system is OOS | 原因: ロックが作成されたシステムがアクティブではないため、ロックは無視されました。 処置: 関連するエラーをログで確認してください。これは無害なエラーの可能性もあります。 |
010108 | ERROR | lock acquisition timeout | 原因: ロックの取得に予想よりも時間がかかりました。または許容時間を超えました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010109 | ERROR | could not get admin locks." `cat /tmp/ER$$` | 原因: ソフトウェアは、リソースの管理に必要なロックの取得に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010110 | ERROR | admin machine not specified | |
010111 | ERROR | lock file not specified | |
010112 | ERROR | lcdrcp failed with error no: $LCDRCPRES | 原因: ファイルを別のサーバにコピーできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010114 | ERROR | COMMAND OUTPUT: $LKROOT/bin/sendevent | |
010115 | ERROR | COMMAND OUTPUT: $LKROOT/bin/sendevent | |
010116 | ERROR | unable to set !lkstop flag | 原因: サーバがユーザの要求によって停止されていることを示すためのフラグを設定できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010121 | ERROR | Extended logs aborted due to a failure in opening $destination. ($syserrmsg) | 原因: 拡張ログファイルを開くときに、ユーティリティ「lkexterrlog」が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010129 | ERROR | Error editing $DEFAULT to $varcmd | |
010131 | ERROR | $CMD: Error editing $DEFAULT to $varcmd | |
010132 | ERROR | Unable to retrieve reservation id from "%s". Error: "%s". Attempting to regenerate. | 原因: SCSI 3 Persistent Reservations に使用する一意の ID の取得元のファイル /opt/LifeKeeper/config/.reservation_id を開くことができません。 処置: ありません。ID の再生成とファイルの更新が試行されます。 |
010133 | ERROR | No reservation ID exists in "%s". A new ID must be generated by running "%s/bin/genresid -g" on "%s". | 原因:一意のリザベーション ID が定義されていません。 処置: のノードのすべてのリソースを out of service にしてから、「/opt/LifeKeeper/bin/genresid -g」を実行して一意のリザベーション ID を生成してください。 |
010134 | ERROR | LifeKeeper does not appear to be running. Unable to determine the uniqueness of the reservation ID within the cluster. | 原因: リザベーション ID が一意かどうかを確認する試行の実行時に、LifeKeeper が動作していませんでした。 処置: LifeKeeper を起動し、「/opt/LifeKeeper/bin/genresid -v」を実行して一意性の確認を再実行してください。 |
010135 | ERROR | The current reservation ID of "%s" is not unique within the cluster. A new ID must be generated by running "%s/bin/genresid -g" on "%s". | 原因: システムに定義されたリザベーション ID は、クラスタ内で一意でないため、使用できません。 処置: このノードのすべてのリソースを out of service にしてから、「/opt/LifeKeeper/bin/genresid -g」を実行して一意のリザベーション ID を生成してください。 |
010136 | ERROR | Unable to store reservation id in "%s". Error: "%s" | 原因: SCSI 3 Persistent Reservations に使用する一意の ID の保存先のファイル /opt/LifeKeeper/config.reservation_id を開くことができません。 処置: ファイルを開くことに失敗した理由としてリストされているエラーを修正し、このノードのすべてのリソースを out of service にしてから、「/opt/LifeKeeper/bin/genresid -g」を実行して新しい一意のリザベーション ID を生成してください。 |
010137 | ERROR | Failed to generate a reservation ID that is unique within the cluster. | 原因: 生成したリザベーション ID はすでにクラスタ内の別のノードに定義されています。リザベーション ID はクラスタ内で一意である必要があります。 処置: このノードのすべてのリソースを out of service にしてから、「/opt/LifeKeeper/bin/genresid -g」を実行して新しい一意のリザベーション ID を生成してください。 |
010138 | ERROR | %s | |
010139 | WARN | %s | |
010140 | ERROR | $COMMAND_SNMPTRAP returned $exitcode for Trap $oid:$result | |
010141 | ERROR | LK_TRAP_MGR is specified in /etc/default/LifeKeeper, but $COMMAND_SNMPTRAP command is not in PATH. | |
010142 | ERROR | $COMMAND_EMAIL returned $exitcode:$result | |
010143 | ERROR | LK_NOTIFY_ALIAS is specified in /etc/default/LifeKeeper, but $COMMAND_EMAIL command is not in PATH. | |
010144 | ERROR | can’t opendir $LICENSE_DIR: $! | |
010145 | ERROR | lktest failed | |
010146 | ERROR | lkcheck failed | |
010147 | ERROR | ins_list failed: exit code = $exit_code | |
010148 | ERROR | %s | |
010159 | ERROR | Maintenance mode disable currently in progress, can’t enable maintenance mode. If this problem persists, consider using the —force option. | |
010160 | ERROR | Maintenance mode enable currently in progress, can’t disable maintenance mode. If this problem persists, consider using the —force option. | |
010161 | ERROR | $tag is not a valid resource tag on the local machine, aborting. Please check the spelling and try again. | |
010163 | ERROR | $cmd script not found or not executable on system $sys. | |
010165 | ERROR | An error occurred while running \’$LKROOT/lkadm/subsys/appsuite/sap/bin/$cmd -m=${opt_mode}${tag_cmd}${force_cmd}\’ on system $sys (exit code: $remexec_ret). Please inspect the logs on that system for more information. | |
010168 | WARN | Maintenance mode was not fully ${opt_mode}d for at least one resource on system $sys. | |
010172 | ERROR | Maintenance mode was not fully ${opt_mode}d for the requested resources on at least one system in the cluster. | |
010173 | ERROR | LifeKeeper is not running on system $me. Unable to ${opt_mode} maintenance mode. Aborting. | |
010179 | ERROR | Maintenance mode action \’${opt_mode}\’ did not complete successfully for resource $tag on system $me. | |
010181 | ERROR | An error occurred while attempting maintenance mode action \’${opt_mode}\’ on system $me for resources: @{local_hier_tags}. | |
010187 | ERROR | Resource $tag has not been extended to system $sys. | |
010200 | ERROR | scsifree: uuid is NULL | |
010206 | ERROR | scsifree: invalid file format, delimiter not found. | |
010209 | ERROR | scsifree(%s): ERROR – matched multiple entries.\n | |
010219 | ERROR | scsifree(%s): LKSCSI_Open(%s) failed | |
010222 | ERROR | scsifree(%s): LKSCSI_Release(%s) unsuccessful | 原因: リザーブされていると思われる SCSI デバイスは予想どおりに解放されませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。システムが正常に機能している場合、このエラーは無害な可能性があります。 |
010225 | ERROR | scsiplock(%s): open failed. | |
010231 | ERROR | scsiplock(%s): reserve failed. | 原因: SCSI デバイスでリザーブを取得できませんでした 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010236 | ERROR | scsifree: invalid file format, delimiter not found. | |
010239 | ERROR | scsiplock(%s): device %s found does not match uuid %s, expected %s | |
010240 | ERROR | scsiplock(%s): uuid %s found does not match device %s, expected %s | |
010247 | ERROR | scsiplist: plist is NULL | |
010250 | ERROR | Failed to exec command ‘%s’ | 原因: 「lklogmsg」ツールがサブコマンド {command} の実行に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。サブコマンドが存在しており、有効なコマンドまたはプログラムであることを確認してください。通常の操作でこのメッセージが表示された場合は、サポートに問い合わせてください。 |
010400 | ERROR | Error: LK_TRAP_MGR is specified in /etc/default/LifeKeeper, but snmptrap command is not in PATH. | |
010401 | EMERG | local recovery failure on resource $opts{‘N’}, syncing our log and rebooting… | |
010402 | EMERG | local recovery failure on resource $opts{‘N’}, trigger VMware HA… | 原因: LifeKeeper Single Server Protection の動作中に、リソースを復旧できませんでした。(VMware-HA が有効になっている場合は) 障害を処理するために VMware-HA が間もなくトリガされます。 処置: 処置は必要ありません。VMware が障害を処理します。 |
010403 | ERROR | VMware HA trigger failed | |
010404 | ERROR | snmptrap returned $err for Trap 131 | |
010405 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010406 | ERROR | snmptrap returned $err for Trap 132 | |
010407 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010408 | ERROR | snmptrap returned $err for Trap 130 | |
010409 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010410 | ERROR | snmptrap returned $err for Trap 121 | |
010411 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010412 | ERROR | snmptrap returned $err for Trap 122 | |
010413 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | 原因: これは、失敗した可能性がある「snmptrap」コマンドの結果です。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010414 | ERROR | snmptrap returned $err for Trap 111 | |
010415 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010416 | ERROR | snmptrap returned $err for Trap 112 | |
010417 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010418 | ERROR | snmptrap returned $err for Trap 110 | |
010419 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010420 | EMERG | local recovery failure on resource $opts{‘N’}, trigger reboot… | 原因: LifeKeeper Single Server Protection の動作中に、リソースを復旧できませんでした。障害を処理するために再起動が間もなくトリガされます。 処置: 処置は必要ありません。 |
010421 | ERROR | snmptrap returned $err for Trap 102 | |
010422 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010423 | ERROR | snmptrap returned $err for Trap 101 | |
010424 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010425 | ERROR | snmptrap returned $err for Trap 100 | |
010426 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010427 | ERROR | snmptrap returned $err for Trap 140 | |
010428 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010429 | ERROR | snmptrap returned $err for Trap 141 | |
010430 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010431 | ERROR | snmptrap returned $err for Trap 120 | |
010432 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010433 | ERROR | LK_NOTIFY_ALIAS is specified in /etc/default/LifeKeeper, but mail command is not in PATH. | |
010434 | ERROR | [$SUBJECT event] mail returned $err | |
010435 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010436 | ERROR | [$SUBJECT event] mail returned $err | |
010437 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010438 | ERROR | [$SUBJECT event] mail returned $err | |
010439 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010440 | ERROR | [$SUBJECT event] mail returned $err | 原因: これは、通知電子メールを「mail」コマンドで送信できなかったことを示します。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010441 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010442 | ERROR | [$SUBJECT event] mail returned $err | |
010443 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | 原因: これは、失敗した可能性がある「mail」コマンドの結果です。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010444 | ERROR | [$SUBJECT event] mail returned $err | |
010445 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | 原因: これは、失敗した可能性がある「mail」コマンドの結果です。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010446 | ERROR | [$SUBJECT event] mail returned $err | |
010447 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010448 | ERROR | [$SUBJECT event] mail returned $err | |
010449 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010450 | ERROR | [$SUBJECT event] mail returned $err | |
010451 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010452 | ERROR | [$SUBJECT event] mail returned $err | |
010453 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010454 | ERROR | [$SUBJECT event] mail returned $err | |
010455 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010456 | ERROR | [$SUBJECT event] mail returned $err | |
010457 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010458 | ERROR | [$SUBJECT event] mail returned $err | |
010459 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010460 | ERROR | [$SUBJECT event] mail returned $err | |
010461 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
010463 | ERROR | LifeKeeper: name of machine is not specified, ARGS=$ARGS | 原因: 「comm_down」イベントで無効な引数が指定されました。 処置: LifeKeeper 設定を確認し、操作を再試行してください。 |
010471 | ERROR | COMM_DOWN: Attempt to obtain local comm_down lock flag failed | 原因: 別のノードとの通信障害の処理中に、ローカルロックを取得できませんでした。これにより、フェイルオーバの処理が中断されます。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。フェイルオーバが正常に実行されない場合は、サポートに問い合わせてください。 |
010482 | ERROR | LifeKeeper: name of machine is not specified, ARGS=$ARGS | 原因: 「comm_up」イベントで無効な引数が指定されました。 処置: LifeKeeper 設定を確認し、操作を再試行してください。 |
010484 | WARN | flg_list -d $MACH check timed-out ($delay seconds). | 原因: 「flg_list」コマンドがタイムアウト値 {delay} 秒に達しました。 |
010487 | WARN | flg_list -d $MACH check timed-out, unintended switchovers may occur. | 原因: 「flg_list」コマンドがタイムアウト値に達しました。 処置: 意図しないスイッチオーバが発生した場合は、リソースツリーをスイッチバックします。 |
010492 | WARN | $m | 原因: 他のサーバのいずれかが、このサーバ {server} には稼働していないように見えますが、Witness サーバが承諾していません。 処置: 他のサーバが稼働していないことを確認し、リソースを手動でスイッチオーバしてください。 |
010494 | ERROR | LifeKeeper: COMM_UP to machine $MACH completed with errors. | 原因: 「COMM_UP」イベントの間に、予期しない障害が発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
010503 | ERROR | lcdrecover hung or returned error, attempting kill of process $FPID | 原因: 「lcdrecover」の処理に時間がかかりすぎているか、エラーアウトしています。 |
010506 | ERROR | Intelligent Switchback Check Failed | 原因: 「lcdrecover」を 5 回実行し、いずれも失敗しました。 処置: リソースツリーを手動でスイッチオーバしてください。 |
010535 | ERROR | LifeKeeper: name of machine is not specified, ARGS=$ARGS | |
010600 | ERROR | removing hierarchy remnants | |
010627 | WARN | Equivalency Trim: does not have a full complement of equivalencies. Hierarchy will be unextended from | |
010629 | WARN | Your hierarchy exists on only one server. Your application has no protection until you extend it to at least one other server. | |
010712 | ERROR | Unextend hierarchy failed | 原因: サーバからリソース階層を拡張できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010714 | ERROR | $ERRMSG Resource \"$aRes\" is currently in-service on machine \"$TARGET_MACH\". | |
010716 | ERROR | $ERRMSG Unable to access dependencies of root resource \"$aRoot\" on target machine \"$TARGET_MACH\". | |
010718 | ERROR | $ERRMSG Hierarchy \"$ROOT_LIST\" is an invalid multi-root hierarchy. Root \"$aRoot\" has no common dependencies. | |
010720 | ERROR | $ERRMSG Hierarchy on target machine has no equivalencies. | |
010722 | ERROR | $ERRMSG Unable to obtain machine access information from target machine \"$TARGET_MACH\". | |
010728 | ERROR | $ERRMSG – Required input target machine is undefined. | |
010730 | ERROR | $ERRMSG – Required input root list is undefined. | |
010734 | ERROR | $ERRMSG The unextmgr program could not be run on target machine \"$TARGET_MACH\". | |
010746 | ERROR | $ERRMSG Target machine \"$TARGET_MACH\" does not have an active LifeKeeper communication path to machine \"$aMach\" in the hierarchy." >&2 | 原因: ターゲットサーバがクラスタ内の他のサーバと適切に通信していないため、階層を拡張できません。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。すべてのサーバが相互にコミュニケーションパスを持っていることを確認してください。 |
010748 | ERROR | $ERRMSG Unable to establish an Admin Lock Flag. | |
010754 | ERROR | $ERRMSG Unable to obtain local equivalencies information. | |
010756 | WARN | Warning – unextmgr ($TARGET_MACH, $ROOT_LIST) – Unable to remove equivalence between \"$LocTag\" on machine \"$TARGET_MACH\" and \"$RemTag\" on machine \"$RemSys\". Continuing! | |
010762 | WARN | Warning – unextmgr ($TARGET_MACH, $ROOT_LIST) – The unextend operation was not completed successfully. | |
010763 | ERROR | lock failed | |
011000 | ERROR | appremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011001 | ERROR | depremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011002 | ERROR | eqvremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011003 | ERROR | flgremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011004 | WARN | Illegal creation of resource | 原因: これは、通常の状態では発生しません。 |
011009 | ERROR | insremote: unknown change field command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011010 | ERROR | insremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011011 | FATAL | %s | 原因: LifeKeeper は IPC キーを取得できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
011012 | FATAL | semget(%s,%c) | 原因: LifeKeeper はセマフォ設定 ID を取得できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
011013 | FATAL | shmget(%s,%c) | 原因: システムは共有メモリセグメントを割り当てることができませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
011014 | FATAL | prefix_lkroot("out")); | 原因: /opt/LifeKeeper/out にアクセス中に、システムエラーが発生しました。 処置: /opt/LifeKeeper/out にアクセスできない理由を特定してください。 |
011015 | ERROR | Please contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product. | 原因: デモライセンスを実行しています。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011016 | ERROR | The product license installed on this system indicates single node operation but the LifeKeeper Single Server Protection package does not appear to be installed. Please install the LifeKeeper SSP package to ensure proper operation | 原因: LifeKeeper Single Server Protection のライセンスがありますが、LifeKeeper Single Server Protection がインストールされていません。 処置: LifeKeeper Single Server Protection をインストールするか、実行している製品に適合するライセンスを入手してください。 |
011018 | ERROR | License manager initialization failed. | 原因: ライセンスマネージャの初期化に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
011020 | EMERG | License manager initialization failed. | 原因: ライセンスマネージャの初期化に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
011021 | EMERG | Error in obtaining LifeKeeper license key. | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011022 | EMERG | Error in obtaining LifeKeeper license key. | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011023 | EMERG | A recovery kit Protection Suite WAS NOT FOUND with the restricted LifeKeeper license. | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011024 | EMERG | Error in obtaining LifeKeeper license key. | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011025 | EMERG | A recovery kit Protection Suite WAS NOT FOUND with the restricted LifeKeeper license. | 原因: LifeKeeper は有効なライセンスキーを見つけられませんでした。 処置: ライセンスキーがサーバに対して有効であることを確認し、操作を再試行してください。 |
011026 | EMERG | Error in obtaining LifeKeeper license key. | 原因: ライセンスに不明な問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011027 | EMERG | A recovery kit Protection Suite WAS NOT FOUND with the restricted LifeKeeper license. | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011028 | ERROR | Error, This version of LifeKeeper must be running in the %c%c locale. The environment variable %s is not set correctly. Please consult your documentation for how to set this. | 原因: 設定されているロケールに問題があります。 処置: マニュアルなどを参照の上、適切なロケールを設定してください。 |
011029 | FATAL | can’t set reply system | 原因: メッセージの送信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もあります。 |
011030 | FATAL | can’t set reply mailbox | 原因: メッセージの送信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もあります。 |
011031 | ERROR | Failure reading output of ‘%s’ on behalf of %s | 原因: 一時ファイル /tmp/OUT.{pid} にアクセスしている際にシステムエラーが発生しました。 処置: /tmp/OUT.{pid} にアクセスできない理由を特定してください。 |
011032 | ERROR | Failure reading output of ‘%s’ | 原因: 一時ファイル /tmp/ERR.{pid} にアクセスしている際にシステムエラーが発生しました。 処置: /tmp/ERR.{pid} にアクセスできない理由を特定してください。 |
011033 | ERROR | event \"%s,%s\" already posted for resource with id \"%s\" | 原因: このメッセージは情報提供の目的でのみ表示されます。 |
011034 | ERROR | no resource has id of \"%s\" | 原因: LifeKeeper は {id} リソースを見つけられませんでした。 処置: パラメータを確認し、「sendevent」操作を再試行してください。 |
011043 | ERROR | COMMAND OUTPUT: %s | |
011044 | ERROR | flagcleanup:fopen(%s) | 原因: /opt/LifeKeeper/config/flg を読み取っている際にシステムエラーが発生しました。 処置: /opt/LifeKeeper/config/flg を読み取ることができない理由を特定してください。 |
011045 | ERROR | flagcleanup:fopen(%s) | 原因: /opt/LifeKeeper/config/flg を書き込んでいる際にシステムエラーが発生しました。 処置: /opt/LifeKeeper/config/flg を書き込むことができない理由を特定してください。 |
011046 | ERROR | flagcleanup:fputs(%s) | 原因: /opt/LifeKeeper/config/flg を書き込んでいる際にシステムエラーが発生しました。 処置: /opt/LifeKeeper/config/flg を書き込むことができない理由を特定してください。 |
011047 | ERROR | flagcleanup:rename(%s,%s) | 原因: /opt/LifeKeeper/config/.flg to /opt/LifeKeeper/config/flg の名前を変更している際にシステムエラーが発生しました。 処置: /opt/LifeKeeper/config/flg の名前を変更できない理由を特定してください。 |
011048 | ERROR | flagcleanup:chmod(%s) | 原因: /opt/LifeKeeper/config/flg の権限を変更している際にシステムエラーが発生しました。 処置: LifeKeeper が /opt/LifeKeeper/config/flg の権限を変更できない理由を特定してください。 |
011049 | ERROR | License check failed with error code %d | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011051 | ERROR | lcdinit: clearing Disk Reserve file failed | 原因: /opt/LifeKeeper/subsys/scsi/resources/disk/disk.reserve を書き込んでいる際にシステムエラーが発生しました 処置: /opt/LifeKeeper/subsys/scsi/resources/disk/disk.reserve を書き込むことができない理由を特定してください。 |
011052 | FATAL | malloc() failed | 原因: システムは LifeKeeper 用にメモリを割り当てられませんでした。 処置: データセグメントのプロセスの上限を増やしてください。 |
011053 | FATAL | /tmp/LK_IS_UNAVAIL | 原因: /tmp/LK_IS_UNAVAIL を書き込んでいる際にシステムエラーが発生しました。 処置: /tmp/LK_IS_UNAVAIL を書き込むことができない理由を特定してください。 |
011054 | FATAL | /tmp/LK_IS_UNAVAIL | 原因: /tmp/LK_IS_UNAVAIL を書き込んでいる際にシステムエラーが発生しました。 処置: /tmp/LK_IS_UNAVAIL を書き込むことができない理由を特定してください。 |
011055 | FATAL | config/LK_IS_ON | 原因: config/LK_IS_ON を書き込んでいる際にシステムエラーが発生しました。 処置: config/LK_IS_ON を書き込むことができない理由を特定してください。 |
011056 | ERROR | License check failed with error code %d | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011057 | ERROR | lcdremote: unknown command type %d(‘%c’)\n | 原因: メッセージの受信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もありますが、このエラーが続き、サーバが通信できない場合は、サーバのネットワーク設定を確認してください。 |
011059 | FATAL | Could not write to: %s | 原因: /opt/LifeKeeper/config/LK_START_TIME にアクセスしている際にシステムエラーが発生しました。 処置: /opt/LifeKeeper/config/LK_START_TIME にアクセスできない理由を特定してください |
011060 | FATAL | received NULL message | 原因: メッセージの受信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もありますが、このエラーが続き、サーバが通信できない場合は、サーバのネットワーク設定を確認してください。 |
011061 | ERROR | unknown data type %d(‘%c’) on machine \"%s\"\n | 原因: メッセージの受信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もありますが、このエラーが続き、サーバが通信できない場合は、サーバのネットワーク設定を確認してください。 |
011062 | WARN | LifeKeeper shutdown in progress. Unable to perform failover recovery processing for %s\n | 原因: LifeKeeper はシャットダウン中に所定のリソースをフェイルオーバできませんでした。 処置: リソースツリーを別のサーバに手動でスイッチオーバしてください。 |
011063 | WARN | LifeKeeper resource initialization in progress. Unable to perform failover recovery processing for %s\n | 原因: LifeKeeper は起動中に所定のリソースをフェイルオーバできませんでした。 処置: LifeKeeper が起動したら、リソースツリーを手動でスイッチオーバしてください。 |
011068 | ERROR | ERROR on command %s | 原因: 「rlslocks」コマンドの実行中にエラーが発生しました。 処置: 隣接するメッセージで詳細を確認してください。 |
011070 | ERROR | ERROR on command %s | 原因: 「getlocks」コマンドの実行中にエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
011080 | FATAL | out of memory | 原因: 内部エラー。 処置: データセグメントのプロセスの上限値を増やしてください。 |
011081 | FATAL | Failed to ask ksh to run: %s | 原因: ksh の呼び出し中にシステムエラーが発生しました。 処置: pdksh (v8.0 以前) または steeleye-pdksh (v81 以降) のパッケージがインストールされていることを確認してください。 |
011082 | ERROR | Failed to remove: %s | 原因: /tmp/LCM_IS_UNAVAIL を削除している際にシステムエラーが発生しました。 処置: /tmp/LCM_IS_UNAVAIL を削除できない理由を特定してください。 |
011083 | ERROR | Failed to remove: %s | 原因: /tmp/LK_IS_UNAVAIL をリンク解除している際にシステムエラーが発生しました。 処置: /tmp/LK_IS_UNAVAIL をリンク解除できない理由を特定してください。 |
011084 | FATAL | Failed to generate an IPC key based on: %s | 原因: /opt/LifeKeeper にアクセス中に、システムエラーが発生しました。 処置: /opt/LifeKeeper にアクセスできない理由を特定してください。 |
011085 | ERROR | semget(%s,%c) failed | 原因: セマフォを削除している際にシステムエラーが発生しました。 処置: セマフォを手動で削除してください。 |
011086 | ERROR | shmget(%s,%c) failed | 原因: 共有メモリセグメントを削除している際にシステムエラーが発生しました。 処置: 共有メモリセグメントを手動で削除してください。 |
011087 | ERROR | semctl(IPC_RMID) failed | 原因: セマフォを削除している際にシステムエラーが発生しました。 処置: セマフォを手動で削除してください。 |
011088 | ERROR | shmctl(IPC_RMID) failed | 原因: 共有メモリセグメントを削除している際にシステムエラーが発生しました。 処置: 共有メモリセグメントを手動で削除してください。 |
011089 | FATAL | Execution of lcdstatus on remote system <%s> failed\n | 原因: リモート {node} がダウンし、ネットワークからアクセスできません。または、リモートノードで別のシステムに問題が発生しています。 処置: リモートノードをオンラインにするか、隣接するメッセージで詳細を確認するか、リモートノードのログで詳細を確認してください。 |
011111 | ERROR | action \"%s\" on resource with tag \"%s\" has failed | 原因: リソース {tag} のアクション {action} に失敗しました。 処置: 隣接するメッセージで詳細を確認してください。 |
011112 | ERROR | netremote: network “%s” with device “%s” not found on “%s” | 原因: LifeKeeper はネットワークデバイスを見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
011113 | ERROR | netremote: unknown subcommand type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011114 | ERROR | netremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011117 | ERROR | sysremote: system \"%s\" not found on \"%s\" | 原因: 無効なシステム名が指定されました。 処置: システム名を再確認し、コマンドを再実行してください。 |
011118 | ERROR | sysremote: unknown subcommand type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011119 | ERROR | sysremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011120 | ERROR | typremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011129 | ERROR | Failure during run of ‘%s’ on behalf of %s | 原因: コマンドの実行に失敗しました。 処置: メッセージで詳細を確認し、問題を特定してください。 |
011130 | ERROR | %s | 原因: コマンド {command} が予期しない結果になりました。 処置: 隣接するエラーメッセージの内容に従って処置を実行してください。 |
011131 | EMERG | \nERROR!\nThe update of the expiration timestamp for the evaluation version of the LifeKeeper product on this system has failed. The evaluation product will no longer execute.\n\nPlease contact the original supplier of your evaluation software for assistance.\n\n | 原因: デモライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011132 | EMERG | \nERROR!\nThe expiration timestamp associated with the evaluation version of the LifeKeeper product on this system has been improperly altered. The evaluation software expires immediately.\n\nPlease contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product.\n\n | 原因: デモライセンスで、時間の改ざんが検出されました。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011133 | EMERG | \nERROR!\nThe expiration timestamp associated with the evaluation version of the LifeKeeper product on this system has been improperly altered. The evaluation software expires immediately.\n\nPlease contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product.\n\n | 原因: デモライセンスで、時間の改ざんが検出されました。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011134 | EMERG | \nERROR!\nThe evaluation version of the LifeKeeper product on this system has expired.\n\nPlease contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product.\n\n | 原因: この製品のデモライセンスが期限切れです。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011135 | EMERG | \nERROR!\nThe expiration timestamp associated with the evaluation version of the LifeKeeper product on this system has been improperly altered. The evaluation software expires immediately.\n\nPlease contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product.\n\n | 原因: デモライセンスで、時間の改ざんが検出されました。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011136 | EMERG | \nIMPORTANT NOTICE!\nThe LifeKeeper product running on this system is an evaluation version which will expire on %s\nTo continue functioning beyond that time, the software must be upgraded to the permanent version.\n\nPlease contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product.\n\n | 原因: デモライセンスを実行しています。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011138 | EMERG | The LifeKeeper product on this system is using an evaluation license key which will expire at midnight on %s. To continue functioning beyond that time, a permanent license key must be obtained. | 原因: デモライセンスを実行しています。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011142 | WARN | LifeKeeper Recovery Kit %s license key NOT FOUND | 原因: {kit} の Application Recovery Kit のライセンスが見つかりませんでした。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011150 | ERROR | COMMAND OUTPUT: %s | 原因: コマンド「eventslcm」が予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
011151 | EMERG | %s | 原因: このバージョンの LifeKeeper Core パッケージは、中華人民共和国内または日本国内での使用に限られています。 |
011152 | EMERG | Localized license failure | 原因: お客様のロケールと製品ライセンスが作成されたロケールが一致していません。 処置: サポートに問い合わせ、お客様のロケールに合った新しいライセンスを入手してください。 |
011154 | EMERG | Single Node flag check failed. | 原因: LifeKeeper Single Server Protection のライセンスがありますが、LifeKeeper Single Server Protection がインストールされていません。 処置:LifeKeeper Single Server Protection をインストールするか、実行している製品に適合するライセンスを入手してください。 |
011155 | EMERG | %s | 原因: この製品のライセンスキーが期限切れです。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011162 | EMERG | %s | 原因: この製品のライセンスキーが期限切れです。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011163 | EMERG | Single Node license check failed | 原因: LifeKeeper Single Server Protection のライセンスがありますが、LifeKeeper Single Server Protection がインストールされていません。 処置: LifeKeeper Single Server Protection をインストールするか、実行している製品に適合するライセンスを入手してください。 |
011164 | EMERG | %s | 原因: この製品のライセンスキーが期限切れです。 処置: サポートに問い合わせ、製品のパーマネントライセンスキーを入手してください。 |
011165 | ERROR | LifeKeeper initialize timed out in tag \"%s\" | |
015000 | ERROR | COMMAND OUTPUT: /opt/LifeKeeper/sbin/chpst | 原因: 「steeleye-lighttpd」プロセスでエラーが発生しました。エラーの詳細は実際のログメッセージに記載されています。 処置: 設定を修正すると、「steeleye-lighttpd」が自動的に再起動します。 |
103001 | ERROR | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: db2nodes.cfg にサーバ名が含まれていません。 処置: db2nodes.cfg が有効であることを確認してください。 |
103002 | ERROR | LifeKeeper was unable to get the version for the requested instance "%s" | 原因:「db2level」コマンドが DB2 のバージョンを返しませんでした。 処置: DB2 の設定を確認してください。 |
103003 | ERROR | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのノードを見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103004 | ERROR | Unable to get the information for resource "%s" | 原因: リソース情報の取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103005 | ERROR | Unable to get the information for resource "%s" | 原因: リソース情報の取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103006 | ERROR | Unable to get the instance information for resource "%s" | 原因: インスタンス情報の取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103007 | ERROR | Unable to get the instance home directory information for resource "%s" | 原因: インスタンスのホームディレクトリのパスの取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103008 | ERROR | Unable to get the instance type information for resource "%s" | 原因: DB2 Application Recovery Kit は、無効なインスタンスタイプを見つけました。 処置: LifeKeeper の設定を確認してください。 |
103009 | ERROR | LifeKeeper has encountered an error while trying to get the database configuration parameters for database "$DB" | 原因: 「db2 get db cfg for $DB」コマンドの実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
103012 | ERROR | LifeKeeper was unable to start the database server for instance "%s" | 原因: 要求された DB2 インスタンスの起動が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「restore」操作を再試行してください。 |
103013 | ERROR | LifeKeeper was unable to start the database server for instance "%s" | 原因: 要求された DB2 インスタンスの起動が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「restore」操作を再試行してください。 |
103015 | ERROR | An entry for the home directory "%s" of instance "%s" does not exist in "/etc/fstab" | 原因: マルチパーティションのデータベースのインスタンスのホームディレクトリは、「/etc/fstab」に存在する必要があります。 処置: ホームディレクトリが「/etc/fstab」に存在することを確認してください。 |
103016 | ERROR | LifeKeeper was unable to mount the home directory for the DB2 instance "%s" | 原因: マルチパーティションのデータベースのインスタンスのホームディレクトリをマウントできませんでした。 処置: ホームディレクトリがマウントされていることを確認し、操作を再試行してください。 |
103017 | ERROR | Unable to get the instance nodes information for resource "%s" | 原因: インスタンスノードの取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103018 | ERROR | LifeKeeper was unable to start database partition server "%s" for instance "%s" | 原因: 要求された DB2 インスタンスの起動が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「restore」操作を再試行してください。 |
103020 | ERROR | LifeKeeper was unable to stop the database server for instance "%s" | 原因: 要求された DB2 インスタンスのシャットダウンが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「remove」操作を再試行してください。 |
103021 | ERROR | LifeKeeper was unable to stop the database server for instance "%s" | 原因: 要求された DB2 インスタンスのシャットダウンが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「remove」操作を再試行してください。 |
103023 | ERROR | Unable to get the instance nodes information for resource "%s" | 原因: インスタンスノードの取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103024 | ERROR | LifeKeeper was unable to stop database partition server "%s" for instance "%s" | 原因: 要求された DB2 インスタンスのシャットダウンが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「remove」操作を再試行してください。 |
103026 | ERROR | Unable to get the instance nodes information for resource "%s" | 原因: インスタンスノードの取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103027 | FATAL | The argument for the DB2 instance is empty | 原因: 作成操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
103028 | FATAL | Unable to determine the DB2 instance home directory | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのホームディレクトリを特定できませんでした。 処置: インスタンスの所有者の名前がインスタンス名と同じであることを確認し、操作を再試行してください。 |
103029 | FATAL | Unable to determine the DB2 instance type | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのタイプを特定できませんでした。 処置: DB2 の設定を確認してください。 |
103030 | FATAL | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのノードを見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103031 | ERROR | The path "%s" is not on a shared filesystem | 原因: インスタンスのホームディレクトリは、共有ファイルシステム上になければなりません。 処置: パスが共有ファイルシステム上にあることを確認し、作成操作を再試行してください。 |
103032 | ERROR | LifeKeeper was unable to get the DB tablespace containers for instance "%s" or the log path for one of its databases | 原因: LifeKeeper はデータベースのテーブルスペースコンテナの場所を特定できなかったか、コンテナがマウント済みのファイルシステム上のパスにあることを確認できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「create」操作を再試行してください。 |
103033 | ERROR | The path "%s" is not on a shared filesystem | 原因: データベースのテーブルスペースコンテナのパスは、共有ファイルシステム上になければなりません。 処置: データベースのテーブルスペースコンテナが共有ファイルシステム上にあることを確認し、操作を再試行してください。 |
103034 | ERROR | A DB2 Hierarchy already exists for instance "%s" | 原因: LifeKeeper によってすでに保護されている DB2 インスタンスを保護しようとしました。 処置: 別の DB2 インスタンスを LifeKeeper の保護用に選択する必要があります。 |
103035 | ERROR | The file system resource "%s" is not in-service | 原因: DB2 リソースが依存するファイルシステムは in service である必要があります。 処置: ファイルシステムリソースが in service であることを確認して、「create」操作を再試行してください。 |
103036 | ERROR | Unable to create the hierarchy for raw device "%s" | 原因: LifeKeeper は、リソース {raw device} を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから 「create」操作を再試行する必要があります。 |
103037 | ERROR | A RAW hierarchy does not exist for the tag "%s" | 原因: LifeKeeper は、raw リソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
103038 | ERROR | LifeKeeper was unable to create a dependency between the DB2 hierarchy "%s" and the Raw hierarchy "%s" | 原因: 要求された親 DB2 リソースと子 Raw リソースとの間の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、「create」操作を再試行してください。 |
103039 | ERROR | LifeKeeper could not disable the automatic startup feature of DB2 instance "%s" | 原因: DB2 の設定を更新しようとして、予期しないエラーが発生しました。 処置: システム起動時にインスタンスが自動で起動されないようにするために、DB2AUTOSTART を手動で更新する必要があります。 |
103040 | ERROR | DB2 version "%s" is not installed on server "%s" | 原因: LifeKeeper は DB2 のインストール場所を見つけられませんでした。 処置: DB2 の設定を確認してください。 |
103041 | ERROR | The instance owner "%s" does not exist on target server "%s" | 原因: 「canextend」操作または「extend」操作の間に、テンプレートサーバから DB2 インスタンスの所有者を取得できませんでした。 処置: 指定したサーバに DB2 インスタンスの所有者が存在していることを確認してください。所有者が存在しない場合、クラスタ内のすべてのサーバで、同じ uid および gid を使用して作成する必要があります。 |
103042 | ERROR | The instance owner "%s" uids are different on target server "%s" and template server "%s" | 原因: DB2 インスタンスの所有者 {user} のターゲットサーバ {target server} のユーザ ID が、テンプレートサーバ {template server} のユーザ {user} の値と一致しません。 処置: DB2 インスタンスの所有者 {user} のユーザ ID はクラスタ内のすべてのサーバで一致している必要があります。ユーザ ID の不一致をすべてのサーバで手動で修正し、「canextend」操作を再試行する必要があります。 |
103043 | ERROR | The instance owner "%s" gids are different on target server "%s" and template server "%s" | 原因:DB2 インスタンスの所有者 {user} のターゲットサーバ {target server} のグループ ID が、テンプレートサーバ {template server} のユーザ {user} の値と一致しません。 処置: DB2 インスタンスの所有者 {user} のグループ ID はクラスタ内のすべてのサーバで一致している必要があります。グループ ID の不一致をすべてのサーバで手動で修正し、「canextend」操作を再試行する必要があります。 |
103044 | ERROR | The instance owner "%s" home directories are different on target server "%s" and template server "%s" | 原因: ターゲットサーバ {target server} のユーザ {user} のホームディレクトリが、テンプレートサーバ {template server} の DB2 インスタンスの所有者のホームディレクトリと一致しません。 処置: DB2 インスタンスの所有者 {user} のホームディレクトリは、クラスタ内のすべてのサーバで一致している必要があります。ディレクトリの不一致をすべてのサーバで手動で修正し、「canextend」操作を再試行する必要があります。 |
103045 | ERROR | LifeKeeper was unable to get the DB2 "SVCENAME" parameter for the DB2 instance | 原因: 「db2 get dbm cfg」コマンドの実行中に予期しないエラーが発生しました。 処置: DB2 の設定を確認してください。 |
103046 | ERROR | Unable to get the value of the DB2 "SVCENAME" parameter for the DB2 instance %s. | 原因: DB2 の「SVCENAME」パラメータが null に設定されています。 処置: DB2 の設定を確認してください。 |
103047 | ERROR | LifeKeeper was unable to get the contents of the "/etc/services" file on the server "%s" | 原因: テンプレートサーバの「/etc/services」に、DB2 インスタンスのサービス名が含まれていません。 処置: 「/etc/services」内にある DB2 インスタンスのサービス名は、クラスタ内のすべてのサーバで一致している必要があります。サービス名の不一致をすべてのサーバで手動で修正し、「canextend」操作を再試行する必要があります。 |
103048 | ERROR | LifeKeeper was unable to get the contents of the "/etc/services" file on the server "%s" | 原因: ターゲットサーバの「/etc/services」に、DB2 インスタンスのサービス名が含まれていません。 処置: 「/etc/services」内にある DB2 インスタンスのサービス名は、クラスタ内のすべてのサーバで一致している必要があります。サービス名の不一致をすべてのサーバで手動で修正し、「canextend」操作を再試行する必要があります。 |
103049 | ERROR | The "/etc/services" entries for the instance "%s" are different on target server "%s" and template server "%s" | 原因: インスタンスの「/etc/services」エントリに不一致があります。 処置: 「/etc/services」内にある DB2 インスタンスのサービス名は、クラスタ内のすべてのサーバで一致している必要があります。サービス名の不一致をすべてのサーバで手動で修正し、「canextend」操作を再試行する必要があります。 |
103050 | ERROR | The home directory "%s" for instance "%s" is not mounted on server "%s" | 原因: LifeKeeper はマルチパーティションインスタンス用の db2nodes.cfg を見つけられませんでした。 処置: ホームディレクトリがマウントされていることを確認し、操作を再試行してください。 |
103051 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: テンプレートサーバからのリソース情報の取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103052 | ERROR | LifeKeeper was unable to add instance "%s" and/or its variables to the DB2 registry | 原因:「db2iset」コマンドの実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
103053 | ERROR | Usage: %s instance | |
103054 | ERROR | Unable to determine the DB2 instance type | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのタイプを特定できませんでした。 処置: DB2 の設定を確認してください。 |
103055 | ERROR | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのノードを見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103056 | ERROR | Usage: %s instance | |
103058 | ERROR | Usage: %s instance | |
103059 | ERROR | Usage: %s instance | |
103060 | ERROR | Unable to determine the DB2 instance home directory | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのホームディレクトリを特定できませんでした。 処置: インスタンスの所有者の名前がインスタンス名と同じであることを確認し、操作を再試行してください。 |
103061 | ERROR | Unable to determine the DB2 instance type | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのタイプを特定できませんでした。 処置: DB2 の設定を確認してください。 |
103062 | ERROR | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: DB2 Application Recovery Kit は、DB2 インスタンスの該当するノードを見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103063 | ERROR | Unable to determine the DB2 install path | 原因: DB2 Application Recovery Kit は、そのインスタンスの DB2 を見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103064 | ERROR | Usage: nodes -t tag -a add_nodenum | nodes -t tag -d delete_nodenum | nodes -t tag -p | |
103065 | ERROR | Invalid input provided for "%s" utility operation, characters are not allowed. | 原因: 「nodes」コマンドで無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
103066 | ERROR | Unable to get the information for resource "%s" | 原因: LifeKeeper は、リソース {tag} を見つけられませんでした。 処置: パラメータを確認し、操作を再試行してください。 |
103067 | ERROR | The DB2 instance "%s" is not a EEE or Multiple Partition instance | 原因: リソースタグ {tag} はシングルパーティションインスタンスです。 処置: パラメータを確認し、操作を再試行してください。 |
103069 | ERROR | Node "%s" is already protected by this hierarchy | 原因: 「nodes」コマンドで無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
103070 | ERROR | Node number "%s" is the last remaining node protected by resource "%s". Deleting all nodes is not allowed. | 原因: 「nodes」コマンドで無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
103071 | ERROR | LifeKeeper is unable to get the equivalent instance for resource "%s" | 原因: 「nodes」コマンドの実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
103072 | ERROR | Unable to set NodesInfo for resource "%s" on "%s" | 原因: 「nodes」コマンドの実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
103073 | ERROR | Unable to set NodesInfo for resource "%s" on "%s" | 原因: 「nodes」コマンドの実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
103074 | ERROR | Usage: %s instance | |
103075 | ERROR | Usage: %s instance | |
103076 | ERROR | Unable to determine the DB2 instance type | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのタイプを特定できませんでした。 処置: DB2 の設定を確認してください。 |
103077 | ERROR | Unable to determine the DB2 instance home directory | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのホームディレクトリを特定できませんでした。 処置: インスタンスの所有者の名前がインスタンス名と同じであることを確認し、操作を再試行してください。 |
103078 | ERROR | The database server is not running for instance "%s" | 原因: DB2 インスタンスのプロセスチェックで、実行中のプロセスが見つかりませんでした。 処置: DB2 インスタンスを開始してください。 |
103079 | ERROR | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのノードを見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103080 | ERROR | One or more of the database partition servers for instance "%s" is down | 原因: すべてのデータベースパーティションサーバが実行されている必要があります。 処置: すべてのデータベースパーティションサーバが実行されていることを確認し、操作を再試行してください。 |
103081 | ERROR | DB2 local recovery detected another recovery process in progress for "%s" and will exit. | |
103082 | ERROR | Failed to create flag "%s" | 原因: DB2 ローカルリカバリ処理を制御するためのフラグを作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
103083 | ERROR | Failed to remove flag "%s" | 原因: DB2 ローカルリカバリ処理を制御するためのフラグを削除しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
103084 | ERROR | Unable to determine the DB2 instance \"$Instance\" home directory | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのホームディレクトリを特定できませんでした。 処置: インスタンスの所有者の名前がインスタンス名と同じであることを確認し、操作を再試行してください。 |
104002 | FATAL | $msg | 原因: このメッセージは内部ソフトウェアエラーを示します。 処置: スタックトレースにエラーの原因が示されます。 |
104003 | FATAL | $self->Val('Tag') . " is not an SDR resource"); | 原因: 非データレプリケーションリソースに対してデータレプリケーションアクションが実行されました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104010 | ERROR | $self->{'md'}: bitmap merge failed, $action | 原因: ビットマップのマージ操作に失敗しました。 処置: ターゲットサーバにミラーや保護されたファイルシステムがマウントされている可能性があります。または、ビットマップファイルがターゲットに見つからない可能性があります。ターゲットサーバを確認してください。 |
104022 | ERROR | $argv[1]: mdadm failed ($ret) | 原因: 「mdadm」コマンドによるミラーへのデバイスの追加に失敗しました。 処置: これは通常、一時的な状態です。 |
104023 | ERROR | $_); | 原因: メッセージに「mdadm」コマンドの結果が含まれています。 |
104025 | ERROR | failed to spawn monitor | 原因: システムは、「mdadm -F」監視プロセスの開始に失敗しました。これは、通常の状態では発生しません。 処置: システムを再起動し、競合の可能性があるものが解決されていることを確認してください。 |
104026 | ERROR | cannot create $md | 原因: ミラーデバイスを作成できませんした。 処置: デバイスがまだ使用中ではないこと、およびミラー作成用の他の全パラメータが正しいことを確認してください。 |
104027 | ERROR | $_ | 原因: このメッセージに「mdadm」コマンドの結果が含まれています。 |
104035 | ERROR | Too many failures. Aborting resync of $md | 原因: 正常範囲とは思われないほど長い時間、デバイスがビジー状態です。 処置: システムを再起動し、デバイスがビジーではなくなっていることを確認してください。 |
104036 | ERROR | Failed to start nbd-server on $target (error $port) | 原因: ターゲットサーバで nbd-server プロセスを開始できませんでした。 処置: ターゲットディスクデバイスが使用可能であること、およびデバイス ID が変更されていないことを確認してください。 |
104037 | ERROR | Failed to start compression (error $port) | 原因: システムは、「バランス」トンネルプロセスを開始できませんでした。または、ネットワークに問題が発生しました。 処置: ネットワークが正常に実行されていること、および 10000 ~ 10512 の範囲内にある TCP ポートがオープンで未使用の状態にあることを確認してください。ソフトウェアがすべてのシステムに正常にインストールされていることを確認してください。 |
104038 | ERROR | Failed to start nbd-client on $source (error $ret) | 原因: nbd-client プロセスをソースサーバで開始できませんでした。 処置: レポートされている errno 値を調べ、レポートされている問題を解決してください。たとえば、errno 値 110 は「Connection timed out」(接続のタイムアウト)を示します。これは、ネットワークかファイアウォールに問題がある可能性があります。 |
104039 | ERROR | Failed to add $nbd to $md on $source | 原因: これは通常、一時的な状態です。 処置: このエラーが続く場合、システムを再起動し、競合の可能性があるものを解決してください。 |
104045 | ERROR | failed to stop $self->{'md'} | 原因: ミラーデバイスを停止できませんした。 処置: デバイスがビジーでないこと、またはマウントされていないことを確認してください。「mdadm —stop」を手動で実行し、デバイスを停止してください。 |
104048 | WARN | failed to kill $proc, pid $pid | 原因: プロセスをシグナル化できませんでした。これは、プロセスが終了していることを示している可能性があります。 処置: 問題のプロセスが実行されていないことを確認し、実行されている場合は、システムを再起動して、終了できないプロセスを消去してください。 |
104050 | ERROR | Setting $name on $dest failed: $ret. Please try again. | 原因: システムは「mirrorinfo」ファイル設定を設定できませんでした。 処置: ネットワークとシステムを確認し、ミラー設定操作を再試行してください。 |
104051 | FATAL | Unable to open file "%s" | 原因: /etc/mtab を開けませんでした。 処置: /etc/mtab が存在することを確認し、システムログでエラーを確認してください。 |
104052 | FATAL | Specified existing mount point "%s" is not mounted | 原因: マウントポイントがアンマウント状態になりました。 処置: マウントポイントがマウントされていることを確認し、操作を再試行してください。 |
104055 | ERROR | Failed to set up temporary $type access to data for $self->{'tag'}. Error: $ret | 原因: ターゲットサーバでファイルシステムまたはデバイスを使用できません。ミラーされたデータは、ミラーが一時停止してから再開されるまでターゲットサーバでは使用できません。 処置: ターゲットサーバを再起動し、競合の可能性があるものを解決してください。 |
104057 | ERROR | Failed to undo temporary access for $self->{'tag'} on $self->{'sys'}. Error: $ret. Please verify that $fsid is not mounted on server $self->{'sys'}. | 原因: ターゲットサーバでファイルシステムをアンマウントできませんでした。 処置: ファイルシステムおよびデバイスがターゲットサーバでビジーでないことを確認してください。ターゲットサーバを再起動し、競合の可能性があるものを解決してください。 |
104062 | FATAL | Cannot find a device with unique ID "%s" | 原因: ターゲットディスクを識別できませんでした。 処置: 適切なストレージリカバリキットがターゲットサーバにインストールされていることを確認してください。ターゲットディスクのデバイス ID が変更されていないことを確認してください。 |
104066 | FATAL | Cannot get the hardware ID of device "%s" | 原因: ターゲットディスクデバイスの一意の ID が見つかりませんでした。 処置: 適切なストレージリカバリキットがターゲットサーバにインストールされていることを確認してください。ターゲットディスクのデバイス ID が変更されていないことを確認してください。 |
104067 | FATAL | Asynchronous writes cannot be enabled without a bitmap file | 原因: 無効なパラメータでミラーを作成しようとしました。 処置: ビットマップファイルパラメータを指定するか、同期書き込みを指定する必要があります。 |
104068 | FATAL | Failed to extend dependent resource %s to system %s. Error %s | 原因: 階層の拡張操作に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104069 | FATAL | Failed to grow array ($ret) | 原因: 拡張中、ミラーが In Service だったテンプレートサーバーは、アレイを拡大して新しいターゲットを追加できませんでした。 処置: LifeKeeper ログおよびシステムログでエラーを確認してください。 |
104070 | FATAL | Unable to extend the mirror "%s" to system "%s" | 原因: 階層の拡張操作に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104071 | ERROR | Failed to restore target device resources on $target->{'sys'} : $err | 原因: ターゲットサーバで in service 操作に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104074 | FATAL | Cannot get the hardware ID of device "%s" | 原因: ミラーに使用しようとしている基本のディスクデバイスを認識するストレージリカバリキットがありません。 処置: 適切なストレージリカバリキットがインストールされていることを確認してください。必要に応じ、/opt/LifeKeeper/subsys/scsi/resources/DEVNAME/device_pattern ファイルにデバイス名を入れてください。 |
104075 | FATAL | Cannot create a new disaster recovery resource instance. | 原因: 処置: |
104076 | FATAL | Failed to create dependency between %s and %s’, $args{‘t’} | 原因: 処置: |
104081 | FATAL | Cannot make the %s filesystem on "%s" (%d): | 原因: 「mkfs」コマンドが失敗しました。 処置:ディスクデバイスが書き込み可能で、エラーがないこと、および選択したファイルシステムのファイルシステムツールがインストールされていることを確認してください。 |
104082 | FATAL | %s | 原因: このメッセージに「mkfs」コマンドの結果が含まれています。 |
104083 | FATAL | Cannot create filesys hierarchy "%s" | 原因: リソースの作成に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104084 | FATAL | Failed to create dependency between %s and %s | 原因: 処置: |
104086 | ERROR | The "%s_data_corrupt" flag is set in "%s/subsys/scsi/resources/netraid/" on system "%s". To avoid data corruption, LifeKeeper will not restore the resource. | 原因: 予期しないデータ破損を防ぐための警告データとして data corrupt フラグファイルが設定されています。ファイルが削除されるまで、このサーバ上のミラーをリストアできません。 処置: 問題のサーバでデータが有効な場合、以下のいずれかを実行できます。1) ファイルを削除してミラーをリストアします。2) LifeKeeper GUI または「mirror_action force」コマンドでミラーを強制的にオンラインにします。 |
104087 | ERROR | The mirror "%s" (resource: "%s") is not in sync between systems "%s" (source) and "%s" (target) (status: %s). You will not be able to failover the resource to the target system listed above. You will have to bring the resource in-service on another system first and a resync will occur to ensure data reliability | 原因: ミラーが Out of Service になったとき、ミラーが同期されていませんでした。ソースにターゲットにはないデータがあるため、DataKeeper は、ミラーが In Service であった最後のノード(前のソースノード)以外のノードでミラーが In Service になることを妨げます。 処置: 前のソースシステムでミラーを In Service にし、ミラーが同期するようにしてください。 |
104088 | ERROR | Unextending resource "%s" while the mirror "%s" is out of sync. The data on the target partition may be corrupted | 原因: ターゲット上の data_corrupt フラグファイルは、ターゲット上のデータがソースと同期されていないことを示しています。 処置: 使用する前に、ターゲットシステム上のデータが有効であることを確認してください。 |
104089 | ERROR | Deleting resource "%s" while target "%s" is out of sync. The data on the target partition may be corrupted | 原因: ターゲット上の data_corrupt フラグファイルは、ターゲット上のデータがソースと同期されていないことを示しています。 処置: 使用する前に、ターゲットシステム上のデータが有効であることを確認してください。 |
104091 | ERROR | Another nbd-client process is running for nbd%s (pid %s). This process will be terminated. | 原因: ターゲットをミラーに追加する際、nbd-client プロセスがすでに実行されていました。予期しないプロセスは終了し、新しいプロセスが開始されます。 処置: ありません |
104092 | ERROR | Mirror target resource movement to system %s : status %s | 原因: 階層のスイッチオーバ操作に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104094 | ERROR | Unable to start the resynchronization to system "%s" for mirror "%s" (resource: "%s"). Please check /proc/mdstat, the system logs, and LifeKeeper logs for error messages | 原因: DataKeeper はリストされたターゲットへの接続を確立できませんでした。 処置: /proc/mdstat、システムログ、LifeKeeper ログでエラーメッセージを確認してください。 |
104097 | ERROR | Unable to stop/remove the mirror "%s" (resource: "%s") on system "%s". You can use the "mdadm —stop" command to manually stop the mirror | 原因: ミラーを停止できません。 処置: システムログと LifeKeeper ログでエラーメッセージを確認してください。fuser(1) を使用してデバイスを使用している可能性のあるプロセスを見つけ、ミラーにファイルシステムがマウントされていないことを確認してください。ミラーを手動で停止するには、-stop /dev/md<#> を実行してください。<#> はエラーメッセージのミラーです。 |
104099 | ERROR | Unable to unextend the mirror for resource "%s" from system "%s" | 原因: 階層の拡張解除に失敗しました。 処置: ターゲットサーバを再起動し、競合の可能性があるものを解決して、操作を再試行します。 |
104101 | ERROR | Failed to set the resynchronization speed limit in %s. | 原因: DataKeeper は、/proc ファイルシステムの速度制限を更新できませんでした。 処置: メッセージにリストされている /proc エントリが存在することを確認し、システムログでエラーを確認してください。 |
104102 | ERROR | Failed to set the resynchronization speed limit in %s. | 原因: DataKeeper は、/proc ファイルシステムの速度制限を更新できませんでした。 処置: メッセージにリストされている /proc エントリが存在することを確認し、システムログでエラーを確認してください。 |
104105 | ERROR | Internal error in DR scripts has sent the wrong flag into SetBitmap. This is a non-fatal internal error. Please report immediately to support@us.sios.com enclosing copies of the LifeKeeper log. | 原因: SetBitmap に許可されるフラグは、ダーティおよびクリーンのみです。これらは内部設定で、常に正しく設定されている必要があります。 処置: このエラーを SIOS サポートに報告してください。 |
104106 | ERROR | remote 'bitmap -m' command failed on $target->{'sys'}: $ranges | 原因: ターゲットサーバでビットマップマージコマンドが失敗しました。これには、次の 2 つの原因が考えられます。1) ビットマップファイルが見つからないか、破損している。2) ミラー(md)デバイスがターゲットでアクティブになっている。 処置: ミラーおよび保護されているファイルシステムがターゲットでアクティブになっていることを確認してください。ターゲットのビットマップファイルが見つからない場合、ミラーを一時停止して再開し、ビットマップファイルを再作成してください。 |
104107 | ERROR | Asynchronous writes cannot be enabled without a bitmap file | 原因: ミラー作成操作で無効なパラメータが指定されました。 |
104108 | ERROR | Local Partition not available | 原因: ミラー作成操作で無効なパラメータが指定されました。 |
104109 | ERROR | Cannot get the hardware ID of device "%s" | 原因: ディスクデバイスの一意の ID を特定できませんでした。 処置: 適切なストレージリカバリキットがサーバにインストールされていることを確認してください。ディスクのデバイス ID が変更されていないことを確認してください。 |
104110 | ERROR | Unable to create the mirror "%s" on system "%s" | 原因: リソースの作成プロセス中にミラーを構築できませんでした。 処置: システムログと LifeKeeper ログを確認してください。 |
104111 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメータが指定されました。 |
104112 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメータが指定されました。 |
104113 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメータが指定されました。 |
104114 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメータが指定されました。 |
104115 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメータが指定されました。 |
104116 | FATAL | The requested filesystem type "%s" is not supported by LifeKeeper LifeKeeper supported filesystem types are listed under "\$LKROOT/lkadm/subsys/gen/filesys/supported_fs" | 原因: 選択したファイルシステムタイプは、このバージョンの LifeKeeper ではサポートされていません。 処置: サポートされているファイルシステムのリストから、ファイルシステムを選択してください。 |
104117 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメータが指定されました。 |
104118 | FATAL | Cannot unmount existing Mount Point "%s" | 原因: マウントポイントがビジーです。 処置: ファイルシステムがビジーではないことを確認してください。ファイルシステムにアクセスする可能性があるプロセスまたはアプリケーションを停止してください。 |
104119 | FATAL | Invalid data replication resource type requested ("%s") | 原因: ミラー作成操作で無効なパラメータが指定されました。 |
104124 | EMERG | WARNING: A temporary communication failure has occurred between systems %s and %s. In order to avoid data corruption, data resynchronization will not occur. MANUAL INTERVENTION IS REQUIRED. In order to initiate data resynchronization, you should take one of the following resources out of service: %s on %s or %s on %s. The resource that is taken out of service will become the mirror target. | 原因: ソースサーバとターゲットサーバの間で、一時的な通信障害 (スプリットブレインシナリオ) が発生しました。 処置: メッセージテキストに記載されている手順を実行してください。 |
104125 | ERROR | failed to start '$cmd $_[2] $user_args' on '$_[3]': | 原因: 指定したコマンドが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104126 | ERROR | $_ | 原因: このメッセージに、メッセージ 104125 で失敗したとレポートされているコマンドの結果が含まれています。 |
104127 | FATAL | Cannot mount "%s" on "%s" | 原因: 新しいミラーを作成した後、ファイルシステムを新しいミラーデバイスにマウントできませんでした。 処置: ミラーのステータス、他のファイルシステムがマウントされていないマウントポイントが存在すること、システムログ、LifeKeeper ログを確認してください。 |
104128 | FATAL | comm path/server not specified | 原因: netraid.down スクリプトが、通信パスまたはサーバー名を指定せずに呼び出されました。このスクリプトは内部で呼び出されるため、常に適切なパラメーターを使用する必要があります。 処置: このエラーを SIOS サポートに報告してください。 |
104129 | WARN | The replication connection for mirror “%s” (resource: “%s”) is down (reason: %s) | 原因: ミラーへのレプリケーションの接続がダウン状態です。 処置: ネットワークを確認してください。 |
104130 | ERROR | Mirror resize failed on %s (%s). You must successfully complete this operation before using the mirror. Please try again. | 原因: ミラーのサイズ変更操作で、リストされたシステム上にあるミラーのメタデータの更新に失敗しました。 処置: ミラーを使用するには、サイズヘンコウを正常に完了する必要があります。「mirror_resize」を再実行してください (必要に応じて、強制実行する -f を使用)。 |
104132 | ERROR | The partition "%s" has an odd number of sectors and system "%s&qquot; is running kernel >= 4.12. Mirrors with this configuration will not work correctly with DataKeeper. Please see the SIOS product documentation for information on how to resize the mirror. | 原因: ミラーの作成用に選択されたパーティションまたはディスクには奇数のディスクセクターがあるため、DataKeeperで使用するにはサイズを変更する必要があります。 処置: 「parted」コマンドを使用してパーティションのサイズを変更するか、可能な場合はプラットフォーム(VMware、AWS)ツールを使用してディスクのサイズを変更します。注記:データが失われる可能性があるため、この操作は慎重に行ってください。 |
104136 | ERROR | Extend failed. | 原因: 階層の拡張操作に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104143 | ERROR | Mirror resume was unsuccessful ($ret) | 原因:ミラーを確立できませんした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104144 | ERROR | Unable to stop the mirror access for $self->{'md'} on system $self->{'sys'}. Error: $ret. Use the "mdadm —stop $self->{'md'}" command to manually stop the mirror. | 原因: ミラーの一時停止時にターゲットノード上に作成されたミラーデバイスを停止できませんでした。 処置: デバイスがビジーでないこと、またはマウントされていないことを確認してください。「mdadm —stop」を手動で実行し、デバイスを停止してください。 |
104145 | WARN | Unable to dirty full bitmap. Setting fullsync flag. | 原因: ビットマップ全体をダーティにすることによる完全な再同期を実行できませんでした。代わりに fullsync フラグが使用されます。完全な同期は実行されるので、これは致命的なエラーではありません。 処置: ありません |
104146 | EMERG | WARNING: The target system %s for mirror %s has the target mirror %s currently active. In order to avoid data corruption, data resynchronization will not occur. MANUAL INTERVENTION IS REQUIRED. In order to initiate data resynchronization, you should reboot system %s. | 原因: ミラーがターゲットシステムで構成されています。 処置: ターゲットシステムを再起動する必要があります。 その後、DataKeeperはミラーを再同期できるようになります。 |
104147 | EMERG | WARNING: The target system %s for mirror %s has the target disk %s currently mounted. In order to avoid data corruption, data resynchronization will not occur. MANUAL INTERVENTION IS REQUIRED. In order to initiate data resynchronization, you should unmount %s on %s. A full resync will occur. | 原因: ミラーディスクがターゲットシステムにマウントされています。 処置: 完全なミラー再同期を開始するには、ミラーディスクをターゲットシステムでアンマウントする必要があります。ディスクで追跡されていない変更が発生したため、完全な再同期が必要です。 |
104148 | EMERG | The storage configuration for mirror "%s (%s)" does not have a unique identifier and may have potential for data corruption in some environments in certain circumstances. Please refer to the SIOS Product Documentation for details on DataKeeper storage configuration options. | 原因: ミラーリング用に選択されたディスクが、オペレーティングシステムにUUIDを提供していません。DataKeeperはUUIDがないとディスクをミラーできません。 処置: ディスク上にGPTパーティションテーブルを作成して、ディスクパーティションにUUIDを提供できます。 DataKeeper for Linux トラブルシューティング を参照してください。 |
104149 | ERROR | snmptrap returned $err for Trap 142 | |
104150 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
104152 | ERROR | [$SUBJECT event] mail returned $err | |
104153 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
104155 | EMERG | The mirror %s cannot be forced online at this time. The underlying disk %s is mounted, indicating possible data corruption. MANUAL INTERVENTION IS REQUIRED. You must unmount %s on %s and restore the mirror to the last known mirror source system. A full resync will need to be performed from the source system to %s. | 原因: ターゲットシステムでミラーディスクがマウントされた。 処置: データ破損を防ぐため、すぐにディスクをアンマウントしてください。 |
104156 | WARN | Resynchronization of "%s" is in PENDING state. Current sync_action is: "%s" | 原因: md デバイスの再同期がペンディング状態であることが検出されました。 処置: LifeKeeper は再同期を強制実行して問題の修正を試行します。関連するエラーをログで確認してください。エラーを解決した後、/proc/mdstat でペンディング状態がクリアされたこと、および datarep リソースの再同期が進行中であるか、完了したことを確認してください。 |
104157 | WARN | /etc/sysconfig/raid-check update failed. Please %s "md%d" to SKIP_DEVS. | 原因: /etc/sysconfig/raid-check を変更して、スキップする MD デバイスのリスト(SKIP_DEVS)にエントリを追加または削除することができません。 処置: raid-check または SKIP_DEVS に関連するエラーがないか、システムログを確認してください。リストされたmdを手動で追加または削除してください。 |
104158 | EMERG | WARNING: The local disk partition $self->{ part } for data replication device\n$self->{ md } has failed. MANUAL INTERVENTION IS REQUIRED. | 原因: ミラーのローカルデバイスで問題が発生しました。LKDR_FAILURE でリカバリーアクションが設定されていないため、復旧するには手動による介入が必要です。 処置: システムログと LifeKeeper ログで、ローカルディスクに関連するエラーを確認してください。 |
104161 | ERROR | set($delete,$me) mirrorinfo $md_num: $sys $num $ip $async $pingfail $pause $logdir $logmax $fullsync $compress $group $type | 原因: 処置: |
104162 | ERROR | set mirrorinfo $md_num: $_ | 原因: 処置: |
104163 | WARN | The "%s_data_corrupt" flag is set in "%s/subsys/scsi/resources/netraid/" on system "%s". The mirror is being forced online. | 原因: ミラーは強制的にオンラインになり、data_corrupt フラグを上書きします。指定されたシステム上のデータは、最新のデータとして扱われます。これが正しくない場合、データ破損またはデータ損失につながる可能性があります。 処置: ありません |
104164 | ERROR | The "%s_data_corrupt" flag for related mirror resource "%s" is set in "%s/subsys/scsi/resources/netraid/" on system "%s". To avoid data corruption, LifeKeeper will not restore this mirror or any related mirrors in the hierarchy. | 原因: data_corrupt フラグは、階層内の1つ以上のミラーに存在します。追加データの破損を防ぐため、すべての data_corrupt フラグが解決されるまで、どのミラーも In Service になりません。 処置: LifeKeeperのログを確認して、各ミラーが最後に In Service になっていた場所、つまり各ミラーの最新データが存在する場所を特定します。すべての階層が In Service であった以前のソースでミラーを In Service にし、ミラーがすべてのターゲットと同期できるようにする必要があります。 |
104165 | ERROR | The "%s_data_corrupt" flag for related mirror resource "%s" is set in "%s/subsys/scsi/resources/netraid/" on system "%s". The mirror resource "%s" is being forced online. | 原因: ミラーは強制的にオンラインになっており、data_corrupt フラグを上書きします。指定されたシステム上のデータは、すべてのターゲットと同期される正しいデータとして扱われます。これが最新のデータでない場合、データ破損またはデータ損失につながる可能性があります。 処置: ありません |
104170 | ERROR | Failed to create "source" flag file on shared source %s to track mirror source. This may result in a full resync. | 原因: 「ソース」フラグファイルが、ミラーソースを追跡するために指定されたシステムで作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104171 | ERROR | Failed to create "source" flag file on %s to track mirror source. Target %s will not be added to mirror. | 原因: 「ソース」フラグファイルが、ミラーソースを追跡するために指定されたシステムで作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104172 | ERROR | The "source" flag file on %s does not contain a valid target (%s). Full resync to remaining targets is required. | 原因: 「ソース」フラグファイルには以前のソースのシステム名が含まれている必要がありますが、リストされている名前は構成されたシステムのリストにありませんでした。 処置: この問題を SIOS サポートに報告してください。 |
104173 | ERROR | Failed to create "source" flag file on %s to track mirror source. | 原因: 「ソース」フラグファイルが、ミラーソースを追跡するために指定されたシステムで作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104174 | ERROR | Failed to create “previous_source” flag file to track time waiting on source. Will not be able to timeout. | 原因: 「previous_source」フラグファイルは、ミラーの以前のソースを追跡するためのミラーソース上に作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104175 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104176 | ERROR | The "source" flag file on %s to track mirror source does not exist. Full resync is required. | 原因: 「ソース」フラグファイルはシステム上に存在する必要があり、これがないとミラーの整合性を検証できません。データの信頼性を確保するには、完全な再同期が必要です。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104177 | ERROR | Failed to determine amount of time waiting on %s. | 原因: 以前のソースを待機する時間を決定できませんでした。以前のソースが見つからない場合、ターゲットは完全に再同期されて追加されます。 処置: ありません |
104178 | ERROR | Failed to update "source" flag file on target "%s", previous source must be merged first. | 原因: ターゲットのソースフラグファイルは、同期されて停止されると更新されるため、次のIn Service時には以前のソースは必要ありません。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104180 | ERROR | Internal Error: "previous_source" has the local system name (%s). | 原因: ローカルシステム名は、previous_source フラグファイルに含めることはできません。 処置: このエラーを SIOS サポートに報告してください。 |
104181 | ERROR | Internal Error: There are no targets waiting on %s to be merged. | 原因: 以前のソースがマージされるのを待機しているターゲットがありません。 処置: このエラーを SIOS サポートに報告してください。 |
104182 | ERROR | Failed to create \"source\" flag file on %s to track mirror source. This may result in a full resync. | 原因: リストされたターゲットに「ソース」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104186 | ERROR | Failed to create "last_owner" flag file on %s to track mirror source. This may allow in-service of mirror on old data. | 原因: 「last_owner」フラグファイルがソースに作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104187 | WARN | $REM_MACH has ${REM_TAG}_last_owner file, create flag ${FLAGTAG}_data_corrupt. | 原因: リストされているシステムでは、ミラーが最後にIn Serviceになりました。 処置: リストされているシステムには last_owner ファイルがあります。これは、このシステムには最新のデータがあり、データの損失を防ぐためにミラーをIn Serviceにするのに最適なシステムである可能性が高いことを示しています。 |
104188 | WARN | $REM_MACH is not alive, create flag ${FLAGTAG}_data_corrupt. | 原因: リストされているシステムは稼働していません。 処置: リストされているシステムは稼働していないため、そのシステムがローカルシステムよりも新しいミラーソースであったかどうかを判断できません。このため、ローカルシステムがミラーをIn Serviceにすることを自動的に許可しないでください。 |
104200 | EMERG | Continue to wait for %s to merge bitmap and do partial resyncs to all targets, no timeout set. | 原因: マルチターゲット構成では、すべてのターゲットが部分的に再同期できるように、以前のソースがビットマップをマージできるようになるまでターゲットは構成されません。/etc/defaults/LifeKeeper の LKDR_WAIT_ON_PREVIOUS_SOURCE_TIMEOUT エントリは、無期限に待機するために「-1」に設定されます。 処置: メッセージにリストされている以前のソースのステータスを確認し、クラスターへの再参加を妨げている問題を解決してください。 |
104201 | EMERG | To stop waiting for the previous source (forcing a full resync to remaining waiting targets) run: "%s/bin/mirror_action %s fullresync %s %s" on %s. | 原因: マルチターゲット構成では、ターゲットは構成されず、以前のソースがクラスターに再参加するのを待機します。 処置: メッセージにリストされているコマンドを実行して、このターゲットおよび再同期を待機している残りのターゲットに対して即時の完全再同期を強制してください。 |
104202 | EMERG | Continue to wait for %s to merge bitmap and do partial resyncs to all targets. Continue to wait %d more seconds. | 原因: マルチターゲット構成では、すべてのターゲットが部分的に再同期できるように、前のソースがビットマップをマージできるようになるまでターゲットは構成されません。 /etc/defaults/LifeKeeper の LKDR_WAIT_ON_PREVIOUS_SOURCE_TIMEOUT エントリは、待機する秒数に設定されます。以前のソースがその時間内にクラスターに参加しない場合、ターゲットは完全に再同期されて追加されます。 処置: メッセージにリストされている以前のソースのステータスを確認し、クラスターへの再参加を妨げている問題を解決してください。 |
104203 | EMERG | To stop waiting for the previous source (forcing a full resync to remaining waiting targets) run: \"%s/bin/mirror_action %s fullresync %s %s\" on %s. | 原因: マルチターゲット構成では、ターゲットは構成されず、以前のソースがクラスターに再参加するのを待機します。 処置: メッセージにリストされているコマンドを実行して、このターゲットおよび再同期を待機している残りのターゲットに対して即時の完全再同期を強制してください。 注記: リストされたターゲットが削除されて戻らない場合でも、このコマンドを実行して待機を停止してください。 |
104207 | ERROR | Failed to create "data_corrupt" flag file on "%s". | 原因: リストされたソースに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104208 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104209 | ERROR | Failed to create "data_corrupt" flag file on "%s". | 原因: リストされたソースに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104210 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104211 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104212 | ERROR | The "source" flag file on %s to track mirror source does not exist. Full resync to remaining targets is required. | 原因: 「ソース」フラグファイルはシステム上に存在する必要があり、これがないとミラーの整合性を検証できません。データの信頼性を確保するには、完全な再同期が必要です。まだミラーされていないすべてのターゲットでは、完全な再同期が必要です。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください. |
104214 | ERROR | Failed to create "source" flag file on %s to track mirror source. | 原因: 「ソース」フラグファイルが、ミラーソースを追跡するために指定されたシステムで作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104216 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104217 | ERROR | Failed to create "source" flag file on shared source %s to track mirror source. This may result in a full resync. | 原因: 「ソース」フラグファイルが、ミラーソースを追跡するために指定されたシステムで作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104218 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104221 | ERROR | Failed to create "last_owner" flag file on %s to track mirror source. This may allow in-service of mirror on old data. | 原因: リストされたターゲットに「last_owner」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104222 | ERROR | Failed to create "last_owner" flag file to track mirror source". This may allow in-service of mirror on old data. | 原因: 「last_owner」フラグファイルは、ミラーが最後にIn Serviceになった場所を特定するために使用されています。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104223 | ERROR | Failed to create "last_owner" flag file to track mirror source". This may allow in-service of mirror on old data. | 原因: 「last_owner」フラグファイルは、ミラーが最後にIn Serviceになった場所を特定するために使用されています。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104224 | ERROR | Failed to create "previous_source" flag file. | 原因: 「previous_source」フラグファイルが作成されませんでした。これは、以前のソースのビットマップをマージして完全な同期を回避するために必要です。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104227 | ERROR | Failed to set %s to %s. | 原因: このメッセージは、nbdドライバー(/sys/block/nbdX)のsysfsパラメーターの設定に失敗したことを示しています。 処置: このエラーを回避するには、/etc/default/LifeKeeper で次のうち1つ以上を調整する必要がある場合があります。 |
104232 | ERROR | Mirror resize failed on %s (%s). Could not set size to %d. | 原因: ミラーのサイズ変更操作に失敗しました。 |
104233 | ERROR | Mirror resize failed on %s (%s). Could not set bitmap to %s and bitmap-chunk to %d. | 原因: ミラーのサイズ変更操作に失敗しました。 |
104234 | ERROR | The mirror %s failed to resize. You must successfully complete this operation before using the mirror. Please try again. | 原因: ミラーのサイズ変更操作に失敗しました。 |
104235 | ERROR | mirror_resize of mirror %s failed due to signal "%s". | 原因: ミラーのサイズ変更操作に失敗しました。 |
104251 | ERROR | There is no LifeKeeper protected resource with tag $tag on system $me. | 原因: 指定されたタグは、指定されたシステム上のLifeKeeperで保護されているリソースに対応していません。 処置: リソースタグとシステム名が正しいことを確認してください。 |
104252 | ERROR | Resource $tag is not a $app/$typ resource. Please use the $ins_app/$ins_typ resource-specific canfailover script instead. | 原因: scsi/netraid 固有の canfailover スクリプトが、非 scsi/netraid リソースに対して呼び出されました。 処置: 指定されたリソースの適切なアプリケーションとタイプに対応する canfailover スクリプトを使用してください(存在する場合)。 |
112000 | FATAL | Usage: “%s %s”. Specify the correct usage for the requested command. | 原因: SAP HANA createスクリプトに無効なパラメーターが指定された。 処置: 適切なパラメーターをSAP HANA createスクリプトに指定してください。 |
112004 | ERROR | The “%s” parameter was not specified for the “%s” function on “%s”. If this was a command line operation, specify the correct parameters, otherwise consult the troubleshooting documentation. | 原因: 内部SAPオブジェクトの作成において無効なパラメーターが指定された。 処置: SIDおよびインスタンスまたはLifeKeeper のリソースタグ名のいずれかを指定してください。 |
112013 | ERROR | The file “%s” does not exist or was not readable on “%s”. Verify that the specified file exists and/or is readable. | 原因: sapservices ファイルが存在しないか、読み込み不可。 処置: sapservices ファイルが存在し、読み込み可能であることを確認してください。 |
112017 | ERROR | Error getting resource information for resource “%s” on server “%s” | 原因: 指定したサーバー上で指定したリソースに関連する情報を見つけることができない。 処置: 指定したサーバーに指定したリソースが存在していて、すべての必要なファイルシステムがマウントされているかを確認してください。 |
112019 | ERROR | The update of the resource information field for resource with tag “%s” has failed on “%s”. View the resource properties manually using ins_list -t <tag> to verify the resource is functional. | 原因: 指定したサーバーで指定したリソースの LifeKeeper リソース情報フィールドを更新できない。 処置: 指定したサーバーにリソースが存在しているか、もしくはLifeKeeper が起動しているかを確認してください。 |
112022 | ERROR | An error occurred trying to find the IP address “%s” on “%s”. Verify the IP address or DNS name exists in DNS or the hosts file | 原因: 指定したサーバーにIPアドレスもしくはホスト名が見つからない。 処置: IPアドレスもしくはDNS名がDNSもしくはローカルホストファイルに存在しているかを確認してください。 |
112024 | FATAL | There was an error verifying the NFS connections for SAP related mount points on \”$me\”. One or more NFS servers is not operational and needs to be restarted. | 原因: SAP_NFS_CHECK_DIRS パラメーター に掲載されている少なくとも一つの NFS 共有ファイルシステムを現在使用できない。 処置: NFSサーバーの起動、すべての必要とされるNFS関連のサービスの起動、すべての必要とされるファイルシステムがエクスポートされていることを確認してください。 |
112028 | ERROR | Error getting resource information for resource “%s” on server “%s” | 原因: 指定したサーバー上に指定したリソース情報を確認することができない。 処置: 指定したサーバーに指定したリソースが存在していて、すべての必要なファイルシステムがマウントされているかを確認してください。 |
112029 | ERROR | Cannot access canextend script “%s” on server “%s” | 原因: SAP canextend スクリプトが存在していないか、実行できない。 処置: SAP canextend スクリプトが存在していて、実行可能か確認してください。 |
112037 | ERROR | The internal object value “%s” was empty. Unable to complete “%s” on “%s”. | 原因: 指定した SAP インスタンスを表すための内部の SAP オブジェクトを作成することができない。 処置: SAP インスタンスが正常にインストール、設定されていて、すべての必要なファイルシステムがマウントされているかを確認してください。 |
112040 | ERROR | The SAP Directory “%s” (“%s”) does not exist on “%s”. Verify the directory exists, or create the appropriate directory. | 原因: 指定したSAP インストールディレクトリが指定したサーバーに存在していない。 処置: SAP ソフトウェアが正常にインストールされすべての必要となるファイルシステムがマウントされていることを確認してください。 |
112041 | ERROR | The required utility or executable “%s”, was not found or was not executable on “%s”. Verify the SAP installation and location of the required utility. | 原因: saphostexec または saposcol が見つからないか実行できない。 処置: SAP Host Agent package が正しくインストールされ、すべての必要となるファイルシステムがマウントされていることを確認してください。 |
112042 | ERROR | One or more SAP / LK validation checks has failed on “%s”. Please update the version of SAP on this host to include the SAPHOST and SAPCONTROL Packages. | 原因: saphostexec または saposcol が見つからないか実行できない。 処置: SAP Host Agent package が正しくインストールされ、すべての必要となるファイルシステムがマウントされていることを確認してください。 |
112048 | ERROR | The SAP instance “%s” is already under LifeKeeper protection on server “%s”. Choose another SAP Instance to protect or specify the correct SAP instance. | 原因: 指定した SAP インスタンスはすでに指定したサーバーでLifeKeeper により保護されている。 処置: まだLifeKeeper により保護されていない SAP インスタンスを選択してください。 |
112049 | ERROR | Error getting SAP “%s” value from “%s” on “%s”. Verify the value exists in the specified file. | 原因: SAP のマウント (sapmnt) ディレクトリの場所を特定できない。 処置: すべての必要となるファイルシステムがマウントされ、すべての必要となる SAP インスタンスプロファイルがアクセス可能になっていることを確認してください。 |
112051 | ERROR | The “%s” or “%s” value in the file “%s” is still set to the physical server name on “%s”. The value(s) must be set to a virtual server name. | 原因: 指定したサーバーで指定したホスト名のパラメーターが物理サーバーのホスト名に指定されている。 処置: ホスト名のパラメーターは仮想ホスト名に設定してください。 |
112053 | ERROR | Detected multiple instance directories for the SAP SID “%s” with Instance ID “%s” in directory “%s” on “%s”. Multiple Instance directories with the same Instance ID is not a supported configuration. | 原因: 同じインスタンス番号のSAP インスタンスが、同じ SAP SID 下に検出された。 処置: SAP環境を再構築することで、指定した SAP SID 下の各インスタンスが一意のインスタンス番号をもつことができます。 |
112056 | ERROR | The NFS export for the path “%s” required by the instance “%s” for the “%s” directory does not have an NFS hierarchy protecting it on “%s”. You must create a NFS hierarchy to protect the SAP NFS Exports before creating the SAP hierarchy. | 原因: 指定したファイルシステムのNFS エクスポートが LifeKeeper により保護されていません。 処置: エクスポートしたファイルシステムの LifeKeeper NFS 階層を作成し、SAP リソースを作成してください。 |
112057 | ERROR | Unable to create a file system resource hierarchy for the file system “%s” on “%s”. | 原因: 指定したサーバーで指定したファイルシステムを保護するための LifeKeeper ファイルシステムリソース階層を作成することができない。 処置: 詳細について LifeKeeper とシステムログを確認してください。 |
112058 | ERROR | Unable to create a dependency between parent tag “%s” and child tag “%s” on “%s”. | 原因: 指定したサーバーで指定したリソース間での依存関係を作成できない。 処置: 詳細について LifeKeeper のログを確認してください。 |
112060 | ERROR | All attempts at local recovery for the SAP resource “%s” have failed on “%s”. A failover to the backup server will be attempted. | 原因: 指定したサーバーで指定した SAP リソースを復旧できない。 処置: SAP リソース階層のフェイルオーバーは自動的に行われます。ユーザーの介入は必要ありません。 |
112061 | ERROR | The values specified for the target and the template servers are the same. Please specify the correct values for the target and template servers. | 原因: SAP リソース階層の拡張中に提供されたテンプレート/ターゲットサーバーが同一。 処置: テンプレート・ターゲットサーバーの正しい名前を提供し、拡張処理を再度実行してください。 |
112062 | ERROR | Unable to find the home directory “%s” for the SAP user “%s” on “%s”. Verify SAP is installed correctly. | 原因: 指定したサーバーで指定した SAP ユーザーのホームディレクトリが見つからない。 処置: SAP ソフトウェアが正常にインストールされ、指定した SID に対する適切な SAP 管理ユーザーがサーバーに存在していることを確認してください。 |
112063 | ERROR | The SAP user “%s” does not exist on “%s”. Verify the SAP installation or create the required SAP user specified. | 原因: 指定した SAP 管理ユーザーが指定したサーバー上に存在していない。 処置: SAP ソフトウェアが正常にインストールされているか確認し、必要に応じて SAP 管理ユーザーを作成してください。 |
112064 | ERROR | The group id for user “%s” is not the same on template server “%s” and target server “%s”. Please correct the group id for the user so that it matches between the template and target servers. | 原因: 指定したSAP 管理ユーザーのグループ IDがテンプレート/ターゲットサーバーで一致していない。 処置: 指定した SAP 管理ユーザーのグループ ID を修正することで、テンプレート/ターゲットサーバーで同一となります。 |
112065 | ERROR | The id for user “%s” is not the same on template server “%s” and target server “%s”. Please correct the user id for the user so that it matches between the template and target servers. | 原因: 指定した SAP 管理ユーザーの IDがテンプレート/ターゲットサーバーで一致していない。 処置: 指定した SAP 管理ユーザーの ID を修正することで、テンプレート/ターゲットサーバーで同一となります。 |
112066 | ERROR | The start and stop files are missing from “%s” on “%s”. Verify that SAP is installed correctly. | 原因: 必要な SAP 実行ファイルもしくは SAP インスタンスプロファイルを配置することができない。 処置: SAP ソフトウェアが正常にインストールされ構成されていて、すべての必要なファイルシステムがマウントされているか確認してください。 |
112069 | ERROR | The command “%s” is not found in the “%s” perl module (“%s”) on “%s”. Please check the command specified and retry the operation. | 原因: 指定したコマンドが指定したサーバーの sap perl modedule に見つからない。 処置: ユーザーから開始したコマンドアクションによりエラーとなった場合は、正しいルーチン名が remoteControl スクリプトに渡されているかを確認してください。通常のLifeKeeper 運用において発生したエラーの場合は、製品サポートへお問い合わせください。 |
112071 | ERROR | The file “%s” exists, but was not read and write enabled on “%s”. Enable read and write permissions on the specified file | 原因: 指定したファイルが指定したサーバーで読み込み/書き込み権限をもっていない。 処置: 指定したサーバーで読み込み/書き込み権限を有効にしてください。 |
112073 | ERROR | Unable to create an internal object for the SAP instance using SID=”“%s”“, Instance=”“%s”“ and Tag=”“%s”“ on “%s”. The values specified for the object initialization (SID, Instance, Tag, and System) were not valid. | 原因: 指定した SAP インスタンスを示すための内部 SAP オブジェクトを作成することができない。 処置: SAP インスタンスが正常にインストール、設定されていて、すべての必要なファイルシステムがマウントされているかを確認してください。 |
112074 | WARN | Warning: The profile file %s for SID %s and Instance %s has Autostart is enabled on %s. Disable Autostart for the specified instance by setting Autostart=0 in the profile file | 原因: Autostart パラメーターが指定したサーバーの指定したインスタンスプロファイルで有効になっている。 処置: 指定した SAP インスタンスがインスタンスプロファイルの中で ‘Autostart = 0’に設定されており、Autostartが有効になっています。Autostartを無効にしてください。 |
112076 | ERROR | Unable to start the sapstartsrv service for SAP SID $sid and SAP instance $Instance on $me. Verify that the sapservices file is correct and the process can be started manually. | 原因: 指定した SAP インスタンスに対して SAP Start Service (sapstartsrv) のプロセスを開始できない。 処置: sapservices ファイルがsapstartsrv プロセスを開始するための適切なコマンドを含んでいて、そのプロセスを手動で開始できるかを確認してください。 |
112077 | ERROR | Unable to stop the sapstartsrv service for SAP SID %s and SAP instance %s on %s. Verify that the sapservices file is correct and the process can be stopped manually. | 原因: 指定した SAP インスタンスに対して SAP Start Service (sapstartsrv) プロセスを停止することができない。 処置: sapservices ファイルが sapstartsrv プロセスを開始するための適切なコマンドを含んでいて、そのプロセスを手動で開始できるかを確認してください。 |
112086 | ERROR | The ERS resource corresponding to resource %s is in-service and maintaining backup locks on a remote system. Bringing resource %s in-service on %s would result in a loss of the backup lock table. Please bring resource %s in-service on the system where the corresponding ERS resource is currently in-service in order to maintain consistency of the lock table. In order to force resource %s in-service on %s, either (i) run the command \’/opt/LifeKeeper/bin/flg_create -f sap_cs_force_restore_%s\’ as root on %s and reattempt the in-service operation or (ii) take the corresponding ERS resource out of service on the remote system. Both of these actions will result in a loss of the backup lock table. | 原因: ASCS/SCS リソースに対応する ERS インスタンスがクラスタ内の異なるサーバーで起動し、バックアップのエンキューテーブルを保存していたので、ASCS/SCS リソースに対して in-service 処理が試された。 処置: バックアップのエンキューテーブルを取得するためにERSインスタンスが起動しているサーバーで、ASCS/SCS リソースを in-sevice にしてください。ASCS/SCS リソースを強制的に in-service にする場合は、 ‘/opt/LifeKeeper/bin/flg_create -f sap_cs_force_restore_<ASCS/SCS Tag>’ コマンドを実行し in-service 処理を試みるか、またはリモートサーバーで対応する ERS リソースを out of service にしてください。これら両方の操作を実行すると、バックアップのエンキューテーブルが失われます。 |
112089 | ERROR | %s was called for a resource with unsupported instance type %s. This method supports only SAP instance type(s) %s. Additional information is available in the LifeKeeper and system logs. | 原因: GetEnqVersion ルーチンがサポートされていない SAP インスタンスのタイプに対して呼び出された。インスタンスタイプ 1 (TYPE_CS), 2 (TYPE_ERS), 5 (TYPE_NEW_ERS) のみがサポート対象です。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112095 | ERROR | Error creating resource “%s” on server “%s” | 原因: 指定したサーバーに指定したリソースを作成することができない。 処置: 指定したサーバーにSAP ソフトウェアが正常にインストールされ、すべての必要なファイルシステムがマウントされアクセス可能になっていることを確認してください。 |
112101 | ERROR | Error getting resource information for resource “%s” on server “%s” | 原因: 指定したサーバー上の指定したリソース情報を確認することができない。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112102 | ERROR | Cannot extend resource “%s” to server “%s” | 原因: 指定したサーバーへ拡張したリソースを作成することができない。 処置: SAP ソフトウェアがターゲットサーバーに正常にインストールされ、すべての必要なファイルシステムがターゲットシステムからアクセス可能になっていることを確認してください。 |
112103 | ERROR | Error creating resource “%s” on server “%s” | 原因: 指定したサーバーに指定したリソースを作成することができない。 処置: 指定したサーバーにSAP ソフトウェアが正常にインストールされ、すべての必要なファイルシステムがマウントされアクセス可能になっていることを確認してください。 |
112104 | ERROR | Cannot access extend script “%s” on server “%s” | 原因: 指定したサーバーに指定した extend スクリプトが存在しないか実行することができない。 処置: すべての必要なリカバリーキットがインストールされ、extend スクリプトが実行可能か確認してください。 |
112106 | ERROR | Error getting resource information for resource “%s” on server “%s” | 原因: 指定したサーバー上の指定したリソース情報を確認することができませんでした。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112112 | ERROR | Error getting resource information for resource “%s” on server “%s” | 原因: 指定したサーバー上の指定したリソース情報を確認することができませんでした。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112115 | FATAL | Error getting resource information for resource \”$tag\” on server \”$sap::me\”. | 原因: 指定したサーバー上の指定したリソース情報を確認することができませんでした。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112119 | ERROR | Error getting resource information for resource “%s” on server “%s” | 原因: 指定したサーバー上の指定したリソース情報を確認することができませんでした。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112123 | ERROR | Error getting resource information for resource “%s” on server “%s” | 原因: 指定したサーバー上の指定したリソース情報を確認することができませんでした。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112124 | ERROR | Resource with either matching tag “%s” or id “%s” already exists on server “%s” for App “%s” and Type “%s” | 原因: 指定したリソースタグ名もしくは ID および同一のアプリケーション、タイプをもつリソースがすでに指定したサーバーに存在しています。 処置: SAP インスタンスが指定したサーバーでまだLifeKeeper に保護されていないことを確認してください。まだ保護されていない場合は、別のリソースタグ名を選択してください。 |
112125 | ERROR | Unable to create an SAP object for resource %s on system %s. | 原因: 指定のサーバーで指定されたリソースを示すための SAP オブジェクトを作成することができない。 処置: 指定したサーバーにSAP ソフトウェアが正常にインストールされ、すべての必要なファイルシステムがマウントされアクセス可能になっていることを確認してください。 |
112126 | ERROR | Usage: “%s %s” Specify the correct usage for the requested command. | 原因: SAP canextend スクリプトの使用に誤りがあります。 処置: canextend スクリプトに対する正しいパラメーターを指定してください。: canextend <template server> <template tag> |
112127 | FATAL | Usage: \”$cmd $usage\” Specify the correct usage for the requested command. | 原因: SAP delete スクリプトの使用に誤りがある。 処置: SAP delete スクリプトに対する正しいパラメーターを指定してください。: delete [-U] -t <tag> -i <id> |
112128 | FATAL | Usage: “%s %s” Specify the correct usage for the requested command. | 原因: SAP depstoextend スクリプトの使用に誤りがある。 処置: depstoextend スクリプトに対する正しいパラメーターを指定してください。: depstoextend <template server> <template tag> |
112129 | FATAL | Usage: “%s %s” Specify the correct usage for the requested command. | 原因: SAP extend スクリプトの使用に誤りがある。 処置: extend スクリプトに対する正しいパラメーターを指定してください。: extend <template server> <template tag> <switchback> <target tag> |
112130 | FATAL | Usage: \”$cmd $usage\” Specify the correct usage for the requested command. | 原因: SAP quickCheck スクリプトの使用に誤りがある。 処置: quickCheck スクリプトに対する正しいパラメーターを指定してください。: quickCheck -t <tag> -i <id> |
112131 | FATAL | Usage: “%s %s” Specify the correct usage for the requested command. | 原因: SAP recover スクリプトの使用に誤りがある。 処置: recover スクリプトに対する正しいパラメーターを指定してください。: recover -d <tag> |
112132 | FATAL | Usage: \”$cmd $usage\”. Specify the correct usage for the requested command. | 原因: SAP remoteControl スクリプトの使用に誤りがある。 処置: remoteControl スクリプトに対する正しいパラメーターを指定してください。: remoteControl <tag> <remote instance> <remote cmd> <remote cmd option> <primary system> <primary tag> |
112133 | FATAL | Usage: “%s %s”. Specify the correct usage for the requested command. | 原因: SAP remove スクリプトの使用に誤りがある。 処置: remove スクリプトに対する正しいパラメーターを指定してください。: remove -t <tag> -i <id> |
112134 | FATAL | Usage: \”$cmd $usage\”. Specify the correct usage for the requested command. | 原因: SAP restore スクリプトの使用に誤りがある。 処置: restore スクリプトに対する正しいパラメーターを指定してください。: restore -t <tag> -i <id> |
112135 | ERROR | Usage: “%s” “%s” Specify the correct usage for the requested command. | 原因: SAPInstanceCmd ルーチンの使用に誤りがある。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112136 | ERROR | Usage: “%s” “%s” Specify the correct usage for the requested command. | 原因: SAPInstanceCmd ルーチンの使用に誤りがある。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112137 | ERROR | Usage: “%s%s” Specify the correct usage for the requested command. | 原因: CleanUpルーチンの使用に誤りがある。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112138 | ERROR | The SAP Instance “%s” and all required processes were not started successfully during the “%s” on server “%s”. Please check the LifeKeeper and system logs for additional messages and retry the operation. | 原因: 指定したサーバーで、指定した SAP インスタンスに対する少なくとも1つのプロセスが正常に開始されませんでした。 処置: LifeKeeper/システムログ, SAP トレースファイルなどから原因を調査し、操作を再度行ってください。 |
112140 | ERROR | The \”<tag>\” parameter was not specified for the \”$func\” function on \”$me\”. If this was a command line operation, specify the correct parameters, otherwise consult the troubleshooting documentation. | 原因: 指定したサーバーでタグパラメーターが GetLK ルーチンに指定されていません。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112141 | ERROR | The “%s” parameter was not specified for the “%s” function on “%s”. If this was a command line operation, specify the correct parameters, otherwise consult the troubleshooting documentation. | 原因: SID もしくは SID のどちらかが指定したサーバーの StatusSapServer ルーチン に指定されていません。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112142 | ERROR | The “%s” parameter was not specified for the “%s” function on “%s”. If this was a command line operation, specify the correct parameters, otherwise consult the troubleshooting documentation. | 原因: SID、インスタンス、インスタンス番号のいずれかが指定のサーバーの StartSapServer ルーチンに提供されていない。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112143 | ERROR | The “%s” parameter was not specified for the “%s” function on “%s”. If this was a command line operation, specify the correct parameters, otherwise consult the troubleshooting documentation. | 原因: SID、インスタンス、インスタンス番号のいずれかが指定のサーバーの StopSapServer ルーチンで指定されていない。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112173 | ERROR | The file “%s” does not exist or was not readable on “%s”. Verify that the specified file exists and/or is readable. | 原因: 指定したファイルが指定したサーバーに存在しないか、読み込み不可になっている。 処置: ファイルが存在しているかを確認および/もしくは権限を修正して読み込み可能な状態にしてください。 |
112174 | ERROR | The file “%s” does not exist or was not readable on “%s”. Verify that the specified file exists and/or is readable. | 原因: 指定したファイルが指定したサーバーに存在しないか、読み込み不可になっています。 処置: ファイルが存在しているかを確認および/もしくは権限を修正して読み込み可能な状態にしてください。 |
112175 | ERROR | The file “%s” does not exist or was not readable on “%s”. Verify that the specified file exists and/or is readable. | 原因: 指定したファイルが指定したサーバーに存在しないか、読み込み不可になっている。 処置: ファイルが存在しているかを確認および/もしくは権限を修正して読み込み可能な状態にしてください。 |
112194 | ERROR | There was an error verifying the NFS connections for SAP related mount points on “%s”. One or more NFS servers is not operational and needs to be restarted. | 原因: マウントポイントが /etc/default/LifeKeeper の SAP_NFS_CHECK_DIRS エントリに記述されている少なくとも一つの 重要なNFS 共有システムが現在無効となっている。 処置: すべての必要な NFS 共有ファイルシステムがアクセス可能であることを確認し、現在操作不可となっている NFS サーバーを再起動してください。 |
112196 | WARN | There was an error verifying the NFS connections for SAP related mount points on “%s”. One or more NFS servers is not operational and needs to be restarted. | 原因: マウントポイントが /etc/default/LifeKeeper の SAP_NFS_CHECK_DIRS エントリに記述されている少なくとも一つの 重要なNFS 共有システムが現在無効となっている。 処置: すべての必要な NFS 共有ファイルシステムがアクセス可能であることを確認し、現在操作不可となっている NFS サーバーを再起動してください。 |
112201 | ERROR | The internal object value “%s” was empty. Unable to complete “%s” on “%s”. Additional information available in the LifeKeeper and system logs | 原因: リソースタグの引数が GetLKEquivルーチンに提供されていません。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112202 | ERROR | The internal object value “%s” was empty. Unable to complete “%s” on “%s”. Additional information available in the LifeKeeper and system logs. | 原因: 内部 SAP オブジェクトにすべてのユーザー情報フィールドがすでに存在しています。 処置: 操作は必要ありません。 |
112203 | ERROR | The internal object value “%s” was empty. Unable to complete “%s” on “%s”. Additional information available in the LifeKeeper and system logs | 原因: SAP インスタンス番号が IsInstanceRunning ルーチンに提供されていません。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112204 | ERROR | The internal object value “%s” was empty. Unable to complete “%s” on “%s”. Additional information available in the LifeKeeper and system logs. | 原因: saphostexec もしくは saposcol コマンドのどちらを使用するか判断できない。 処置: SAP kernel 7.3より前のSAP NetWeave に対して SAP_SRVHOST_CMD, SAP_HOSTCTL_CMD, SAP_OSCOL_CMD を使用している場合は、チューニングが正しく設定されていることを確認してください。 |
112205 | ERROR | The internal object value “%s” was empty. Unable to complete “%s” on “%s”. Additional information available in the LifeKeeper and system logs. | 原因: SAP インスタンスが 指定したサーバーのSAPRemExec ルーチンに提供されなかった。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112206 | ERROR | The internal object value “%s” was empty. Unable to complete “%s” on “%s”. Additional information available in the LifeKeeper and system logs. | 原因: 指定したサーバーで SAPRemExec ルーチンに対するアクションが提供されませんでした。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112208 | ERROR | Error getting SAP “%s” value from “%s” on “%s”. Verify the value exists in the specified file. | 原因: 指定したサーバーで提供されたプロファイルから仮想IPもしくはホスト名を取得できない。 処置: プロファイルに適切なエントリーが存在していることを確認してください。 |
112209 | ERROR | Error getting SAP \“default (DFLTInfo)\” value from \”$DPFL\” on \”$me\”. Verify the value exists in the specified file. | 原因: 指定したサーバーで提供されたプロファイルから SAP インスタンスに関する情報を取得できない。 処置: SAP ソフトウェアが正常にインストールされ提供されたプロファイルが存在および読み込み可能となっていることを確認してください。 |
112210 | ERROR | The “%s” or “%s” value in the file “%s” is still set to the physical server name on “%s”. The value(s) must be set to a virtual server name. | 原因: ホスト名のパラメーターが物理サーバーのホスト名に設定されている。 処置: 定義されたホスト名のパラメーターを仮想ホスト名に設定してください。 |
112214 | ERROR | “%s”: Unable to determine the status of the path “%s” (“%s”) on “%s”. The path on %s may require the execution of the command: mount <ip>:<export> %s. Verify the installation and mount points are correct on this server. | 原因: 指定したパスのファイルシステムのステータスを判断できません。 処置: SAP ソフトウェアが正常にインストールされすべての必要となるファイルシステムがマウントされていることを確認してください。 |
112219 | ERROR | The file “%s” exists, but was not read and write enabled on “%s”. Enable read and write permissions on the specified file | 原因: 指定したファイルが指定したサーバーで読み込み/書き込み権限をもっていない。 処置: 指定したサーバーの読み込み/書き込み権限を有効にしてください。 |
112220 | ERROR | Unable to start the sapstartsrv service for SAP SID %s and SAP instance %s on %s. Verify that the sapservices file is correct and the process can be started manually. | 原因: 指定した SAP インスタンスに対する SAP Start Service (sapstartsrv) プロセスを開始できない。 処置: sapservices ファイルがsapstartsrv プロセスを開始するための適切なコマンドを含んでいて、そのプロセスを手動で開始できるかを確認してください。 |
112221 | ERROR | %s was called for a resource with unsupported instance type %s. This method supports only SAP instance type(s) %s. Additional information is available in the LifeKeeper and system logs. | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112222 | ERROR | %s was called for a resource with unsupported instance type %s. This method supports only SAP instance type(s) %s. Additional information is available in the LifeKeeper and system logs. | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112223 | ERROR | %s was called for a resource with unsupported instance type %s. This method supports only SAP instance type(s) %s. Additional information is available in the LifeKeeper and system logs. | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112224 | ERROR | %s was called for a resource with unsupported instance type %s. This method supports only SAP instance type(s) %s. Additional information is available in the LifeKeeper and system logs. | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112225 | ERROR | %s was called for a resource with unsupported instance type %s. This method supports only SAP instance type(s) %s. Additional information is available in the LifeKeeper and system logs. | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112226 | ERROR | %s was called for a resource with unsupported instance type %s. This method supports only SAP instance type(s) %s. Additional information is available in the LifeKeeper and system logs. | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112227 | ERROR | %s was called for a resource with unsupported instance type %s. This method supports only SAP instance type(s) %s. Additional information is available in the LifeKeeper and system logs. | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112228 | ERROR | %s was called for a resource with unsupported instance type %s. This method supports only SAP instance type(s) %s. Additional information is available in the LifeKeeper and system logs. | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112976 | ERROR | There is no LifeKeeper protected resource with tag $tag on system $me. | 原因: SAP canfailover スクリプトに渡されたリソースタグに対応する LifeKeeper リソースがない。 処置: リソースタグ名が正しいことを確認し再度コマンドを実行してください。 |
112977 | ERROR | Resource $tag is not a $app/$typ resource. Please use the $ins_app/$ins_typ resource-specific canfailover script instead. | 原因: SAP canfailover スクリプトに渡された LifeKeeper リソースが、SAP(appsuite/sap)リソースではない。 処置: 指定したリソースに対して適切なタイプ固有の canfailover スクリプトを使用してください。 |
122005 | ERROR | Unable to "%s" on "%s" | 原因: 「getlocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122007 | ERROR | Unable to "%s" on "%s" | 原因: 「rlslocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122009 | ERROR | The path %s is not a valid file. | 原因: listener.ora ファイルがありません。 処置: ファイルが存在していることを確認し、操作を再試行してください。 |
122010 | ERROR | The listener user does not exist on the server %s. | 原因: 「Stat」コマンドでユーザ ID を取得できませんでした。 処置: 操作を再試行してください。 |
122011 | ERROR | The listener user does not exist on the server %s. | 原因: UID が passwd ファイルにありません。 処置: UID が passwd ファイルに存在していることを確認し、操作を再試行してください。 |
122012 | ERROR | The listener user does not exist on the server %s. | 原因:ユーザ名が passwd ファイルにありません。 処置: ユーザ名が passwd ファイルに存在していることを確認し、操作を再試行してください。 |
122023 | ERROR | The %s command failed (%d) | 原因: このメッセージに「lsnrctl」コマンドの戻りコードが含まれています。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122024 | ERROR | $line | 原因: メッセージに「lsnrctl」コマンドの結果が含まれています。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122039 | ERROR | Usage error | 原因: リストア操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
122040 | ERROR | Script $cmd has hung on the restore of \"$opt_t\". Forcibly terminating. | 原因: リスナーの restore スクリプトがタイムアウト値に達しました。 処置: listener.ora が有効であること、および /etc/default/LifeKeeper の LSNR_START_TIME(デフォルトでは 35 秒)がリスナーの起動に必要な時間以上の値に設定されていることを確認してください。 |
122041 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: LifeKeeper は、{server} でリソース {resource} をリストアできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122045 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: リソース情報の取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
122046 | ERROR | Usage error | 原因: リストア操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
122049 | ERROR | The script $cmd has hung on remove of \"$opt_t\". Forcibly terminating. | 原因: リスナーの remove スクリプトがタイムアウト値に達しました。 処置: listener.ora が有効であること、および /etc/default/LifeKeeper の LSNR_STOP_TIME (デフォルトでは 35 秒) がリスナーの停止に必要な時間以上の値に設定されていることを確認してください。 |
122051 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122055 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: LifeKeeper は、{server} でリソース {resource} に対して quickCheck を実行できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122057 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122064 | WARN | The %s level is set to %s a %s will not occur. | 原因: リスナーの最低限の保護レベルは起動と監視です。 処置: リスナーを手動で起動してください。 |
122066 | ERROR | Script has hung checking \"$tag\". Forcibly terminating. | 原因: リスナーの quickCheck スクリプトがタイムアウト値に達しました。 処置: listener.ora が有効であること、および /etc/default/LifeKeeper の LSNR_STATUS_TIME (デフォルトでは 15 秒) がリスナーの確認に必要な時間以上の値に設定されていることを確認してください。 |
122067 | ERROR | Usage error | 原因: quickCheck 操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
122069 | ERROR | Usage error | 原因: 削除操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
122072 | ERROR | %s: resource "%s" not found on local server | 原因: 復旧操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
122074 | WARN | The local recovery attempt has failed but %s level is set to %s preventing a failover to another node in the cluster. With %s recovery set all local recovery failures will exit successfully to prevent resource failovers. | 原因: オプションのリスナーリカバリレベルがローカルリカバリにのみ設定されています。 処置: リソースツリーを手動でスイッチオーバしてください。 |
122078 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因:LifeKeeper は、{server} でリソース {resource} を復旧できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122082 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122083 | ERROR | $cmd has hung checking \"$tag\". Forcibly terminating | 原因: recover スクリプトがシグナルによって停止されました。 処置: listener.ora が有効であることを確認してください。 |
122084 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 処置: パラメータを確認し、操作を再試行してください。 |
122085 | ERROR | Usage: %s %s | 原因: canextend 操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
122086 | ERROR | The values specified for the target and the template servers are the same. Please specify the correct values for the target and template servers. | 原因: ターゲットサーバに指定した値とテンプレートサーバに指定した値が同じです。 処置: メッセージテキストに記載されている手順を実行してください。 |
122087 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122088 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: リソース情報からのリスナーユーザ名の取得に失敗しました。 処置: リソース情報フィールドが有効であることを確認し、操作を再試行してください。 |
122089 | ERROR | The listener user %s does not exist on the server %s. | 原因: ユーザ名が passwd ファイルにありません。 処置: ユーザ名が passwd ファイルに存在していることを確認し、操作を再試行してください。 |
122090 | ERROR | The id for user %s is not the same on template server %s and target server %s. | 原因: ユーザ ID はどちらのサーバでも同じものにする必要があります。 処置: ユーザ ID を同じものにしてください。 |
122091 | ERROR | The group id for user %s is not the same on template server %s and target server %s. | 原因: グループ ID はどちらのサーバでも同じものにする必要があります。 処置: グループ ID を同じものにしてください。 |
122092 | ERROR | Cannot access canextend script "%s" on server "%s" | 原因: {server} で「canextend」スクリプトを見つけられなかったので、LifeKeeper は拡張前のチェックを実行できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122097 | ERROR | Usage: %s %s | 原因: 「configActions」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122098 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122099 | ERROR | Unable to update the resource %s to change the %s to %s on %s. | 原因: LifeKeeper は情報フィールドに情報を入力できませんでした。 処置: LifeKeeper を再起動し、操作を再試行してください。 |
122100 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122101 | ERROR | Unable to update the resource %s to change the %s to %s on %s. | 原因: LifeKeeper は {server} で情報フィールドに情報を入力できませんでした。 処置: {server} で LifeKeeper を再起動し、操作を再試行してください。 |
122103 | ERROR | Usage: %s %s | 原因: 作成操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
122124 | ERROR | END failed hierarchy "%s" of resource "%s" on server "%s" with return value of %d | 原因: LifeKeeper は、{server} でリソース {resource} を作成できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122126 | ERROR | Unable to "%s" on "%s | 原因: 「rlslocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122127 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: LifeKeeper は、{server} でリソース {resource} を作成できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122129 | ERROR | Unable to "%s" on "%s | 原因:「getlocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122131 | ERROR | Error creating resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を作成できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122133 | ERROR | Unable to create a file system resource hierarchy for the file system %s. | 原因: 「filesyshier」の実行中に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
122135 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122140 | ERROR | Resource "%s" is not ISP on server "%s" Manually bring the resource in service and retry the operation | 原因: リスナーリソースが依存する IP リソース {tag} は ISP の必要があります。 処置: メッセージテキストに記載されている手順を実行してください。 |
122141 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122144 | ERROR | Usage: %s %s | 原因: 「create_ins」操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
122145 | ERROR | An error has occurred in utility %s on server %s. View the LifeKeeper logs for details and retry the operation. | 原因:「app_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122146 | ERROR | An error has occurred in utility %s on server %s. View the LifeKeeper logs for details and retry the operation. | 原因: 「typ_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122147 | ERROR | An error has occurred in utility %s on server %s. View the LifeKeeper logs for details and retry the operation. | 原因: 「newtag」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122148 | ERROR | Error creating resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を作成できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122149 | ERROR | An error has occurred in utility %s on server %s. View the LifeKeeper logs for details and retry the operation. | 原因: 「ins_setstate」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122150 | ERROR | Error creating resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を作成できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122151 | ERROR | Usage: %s %s | 原因: 「depstoextend」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122152 | ERROR | Usage: %s %s | 原因: 「extend」操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
122153 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122154 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 |
122155 | ERROR | Resource with either matching tag "%s" or id "%s" already exists on server "%s" for App "%s" and Type "%s" | 原因: リスナーリソースの拡張中に、同じ {tag} または {id} で異なるリソースアプリケーションおよびタイプを使用しているリソースインスタンスが見つかりました。 処置: リソース ID は一意のものにする必要があります。Oracle Listener リソースインスタンスに合致する ID のリソースインスタンスを削除してください。 |
122156 | ERROR | Cannot access extend script "%s" on server "%s" | 原因: LifeKeeper は、{server} でスクリプト EXTEND が見つからなかったので、リソース階層を拡張できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122157 | ERROR | Usage: %s %s | 原因: 「getConfigIps」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122158 | ERROR | The file %s is not a valid listener file. The file does not contain any listener definitions. | 原因: リスナー定義が見つかりませんでした。 処置: リスナー定義が listener.ora にあることを確認し、操作を再試行してください。 |
122159 | ERROR | Usage: %s %s | 原因: 「getSidListeners」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122160 | ERROR | The file %s is not a valid listener file. The file does not contain any listener definitions. | 原因: リスナー定義が見つかりませんでした。 処置: リスナー定義が listener.ora にあることを確認し、操作を再試行してください。 |
122161 | ERROR | Usage: %s %s | 原因: 「lsn-display」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122162 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122163 | ERROR | Usage: %s %s | 原因: updateHelper 操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
122164 | ERROR | END failed hierarchy "%s" of resource "%s" on server "%s" with return value of %d | 原因: LifeKeeper は、{server} でリソース {resource} を更新できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122166 | ERROR | Usage: %s %s | 原因: 「updateHelper」操作で無効なパラメータが指定されました。 処置: パラメータを確認し、操作を再試行してください。 |
122170 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122171 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122172 | ERROR | Usage: %s %s | 原因: 「updIPDeps」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122173 | ERROR | END failed hierarchy "%s" of resource "%s" on server "%s" with return value of %d | 原因: LifeKeeper は、{server} でリソース {resource} を更新できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122175 | ERROR | Unable to "%s" on "%s | 原因: 「rlslocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122177 | ERROR | Unable to "%s" on "%s | 原因:「getlocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122180 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122181 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122183 | ERROR | The path %s is not a valid file. | 原因: listener.ora ファイルがありません。 処置: ファイルが存在していることを確認し、操作を再試行してください。 |
122185 | ERROR | The file %s is not a valid listener file. The file does not contain any listener definitions. | 原因: LifeKeeper は有効なリスナー定義の検索に失敗しました。 処置: 有効なリスナー定義が listener.ora にあることを確認し、操作を再試行してください。 |
122186 | ERROR | The value specified for %s cannot be empty. Please specify a value for this field. | 原因:設定ファイルまたは実行可能ファイルの {path} フィールドが空です。 処置: 空でない値を {path} に入力し、操作を再試行してください。 |
122187 | ERROR | The path %s is not a valid file or directory. | 原因: 定義済み {path} が無効です。 処置: {path} が存在していることを確認し、操作を再試行してください。 |
122188 | ERROR | The path %s is not a valid file or directory. | 原因: {path} がありません。 処置: {path} が存在していることを確認し、操作を再試行してください。 |
122189 | ERROR | The value specified for %s cannot be empty. Please specify a value for this field. | 原因: 設定および実行パスフィールドが空です。 処置: フィールドのパスを入力してください。 |
122190 | ERROR | Usage: %s %s | 原因: 「valid_rpath」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122191 | ERROR | The values specified for the target and the template servers are the same. | 原因: valid_rpath の無効な引数。 処置: 引数を確認し、操作を再試行してください。 |
122192 | ERROR | Unable to find the configuration file "oratab" in its default locations, /etc/oratab or %s on "%s" | 原因: /etc/oratab または {path} に oratab ファイルがありません。 処置: oratab ファイルが {path} にあること、または /etc/default/Lifekeeper の ORACLE_ORATABLOC が有効なパスに設定されていることを確認してください。 |
122193 | ERROR | Unable to find the configuration file "oratab" in its default locations, /etc/oratab or %s on "%s" | 原因: /etc/oratab または {path} に oratab ファイルがありません。 処置: oratab ファイルが {path} にあること、または /etc/default/Lifekeeper の ORACLE_ORATABLOC が有効なパスに設定されていることを確認してください。 |
122194 | ERROR | Unable to find the configuration file "oratab" in its default locations, /etc/oratab or %s on "%s" | 原因: /etc/oratab または {path} に oratab ファイルがありません。 処置: oratab ファイルが {path} にあること、または /etc/default/Lifekeeper の ORACLE_ORATABLOC が有効なパスに設定されていることを確認してください。 |
122195 | ERROR | Unable to find the configuration file "oratab" in its default locations, /etc/oratab or %s on "%s" | 原因: /etc/oratab または {path} に oratab ファイルがありません。 処置: oratab ファイルが {path} にあること、または /etc/default/Lifekeeper の ORACLE_ORATABLOC が有効なパスに設定されていることを確認してください。 |
122196 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因:LifeKeeper は、{server} でリソース {resource} を削除できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122197 | ERROR | Unable to find the configuration file \"oratab\" in its default locations, /etc/oratab or $listener::oraTab on \"$me\" | 原因: /etc/oratab または {path} に oratab ファイルがありません。 処置: oratab ファイルが {path} にあること、または /etc/default/Lifekeeper の ORACLE_ORATABLOC が有効なパスに設定されていることを確認してください。 |
122198 | ERROR | remove for $okListener failed. | |
122251 | ERROR | Update of pluggable database info field for "%s" on "%s" failed (%s). | |
122252 | ERROR | Initial connect with query buffer to database "%s" on "%s" failed, testing output. | |
122253 | ERROR | The Oracle database "%s" is not running or no open connections are available on "%s". | |
122261 | ERROR | The Oracle resource (%s) and dependency are not set on %s. | |
122262 | ERROR | Usage: %s %s | |
122263 | ERROR | The restore of %s has timed out on server %s. The default TIMEOUT is 300 seconds. To increase the TIMEOUT, set ORACLE_RESTORE_TIMEOUT in /etc/default/LifeKeeper. | |
122264 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | |
122268 | ERROR | Failed to create object instance for Oracle on "%s". | |
122269 | ERROR | no dependency for Oracle on "%s". | |
122270 | ERROR | Unable to find the Oracle executable "%s" on "%s". | |
122271 | ERROR | Usage: %s %s | |
122272 | ERROR | The remove of %s has timed out on server %s. The default TIMEOUT is 300 seconds. To increase the TIMEOUT, set ORACLE_REMOVE_TIMEOUT in /etc/default/LifeKeeper. | |
122273 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | |
122277 | ERROR | Usage: %s %s | |
122278 | ERROR | Failed to create object instance for Oracle on "%s". | |
122279 | ERROR | no dependency for Oracle on "%s". | |
122280 | ERROR | Unable to find the Oracle executable "%s" on "%s". | |
122281 | ERROR | The quickCheck of %s has timed out on server %s. The default TIMEOUT is 45 seconds. To increase the TIMEOUT, set ORACLE_QUICKCHECK_TIMEOUT in /etc/default/LifeKeeper. | |
122282 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | |
122284 | ERROR | Failed to create object instance for Oracle on "%s". | |
122285 | ERROR | no dependency for Oracle on "%s". | |
122287 | ERROR | Unable to find the Oracle executable "%s" on "%s". | |
122288 | ERROR | Usage: %s %s | |
122291 | ERROR | Cannot extend resource "%s" to server "%s" | |
122292 | ERROR | The values specified for the target and the template servers are the same: "%s". | |
122294 | ERROR | Cannot access canextend script "%s" on server "%s" | |
122295 | ERROR | Usage: %s %s | |
122296 | ERROR | DB instance "%s" is not protected on "%s". | |
122297 | ERROR | Failed to create object instance for OraclePDB on "%s". | |
122298 | ERROR | Unable to locate the oratab file "%s" on "%s". | |
122299 | ERROR | END failed hierarchy "%s" of resource "%s" on server "%s" with return value of %d | |
122301 | ERROR | Unable to "%s" on "%s" during resource create. | |
122302 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | |
122304 | ERROR | Unable to "%s" on "%s" during resource create. | |
122305 | ERROR | Unable to determine Oracle user for "%s" on "%s". | |
122306 | ERROR | Error creating resource "%s" on server "%s" | |
122308 | ERROR | Dependency creation between Oracle pluggable database "%s (%s)" and the dependent resource "%s" on "%s" failed. Reason | |
122309 | ERROR | %s | |
122311 | ERROR | In-service attempted failed for tag "%s" on "%s". | |
122312 | ERROR | Usage: %s %s | |
122313 | ERROR | Create of app "%s" on "%s" failed with return code of "%d". | |
122314 | ERROR | Create of typ "%s" for app "%s" on "%s" failed with return code of "%d". | |
122316 | ERROR | Create of resource tag via "newtag" on "%s" failed. | |
122318 | ERROR | Error creating resource "%s" on server "%s" | |
122320 | ERROR | Setting "resstate" for resource "%s" on "%s" failed with return code of "%d". | |
122321 | ERROR | Error creating resource "%s" on server "%s" | |
122322 | ERROR | Usage: %s %s | |
122323 | ERROR | Usage: %s %s | |
122324 | ERROR | Usage: %s %s | |
122325 | ERROR | Cannot extend resource "%s" to server "%s" | |
122326 | ERROR | Resource with either matching tag "%s" or id "%s" already exists on server "%s" for App "%s" and Type "%s" | |
122327 | ERROR | Error creating resource "%s" on server "%s" | |
122328 | ERROR | Cannot access extend script "%s" on server "%s" | |
122329 | ERROR | Cannot extend resource "%s" to server "%s" | |
122330 | ERROR | Usage: %s %s | |
122331 | ERROR | Failed to create object instance for OraclePDB on "%s". | |
122332 | ERROR | Usage: %s %s | |
122334 | ERROR | Backup node %s is unreachable; abort protection PDB changes. | |
122336 | ERROR | Update of protection PDB failed for "%s" on "%s". | |
122339 | ERROR | Usage: %s %s | |
122340 | ERROR | Usage: %s %s | |
122341 | ERROR | Usage: %s %s | |
122342 | ERROR | Failed to create object instance for OraclePDB on "%s". | |
122343 | ERROR | Usage: %s %s | |
122344 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | |
122348 | ERROR | Failed to create flag "%s" on "%s". | |
122350 | ERROR | Failed to create object instance for Oracle on "%s". | |
122351 | ERROR | no dependency for Oracle on "%s". | |
122353 | ERROR | Unable to find the Oracle executable "%s" on "%s". | |
122356 | ERROR | Usage: %s %s | |
122357 | ERROR | Failed to create object instance for OraclePDB on "%s". | |
122358 | ERROR | The selected oracle SID "%s" is not a CDB. | |
122359 | ERROR | No protectable PDB found for the selected SID "%s". | |
122360 | ERROR | No protected Oracle database found on "%s". | |
122500 | ERROR | Usage: %s %s | 原因: 作成操作で無効なパラメーターが指定されました。 処置: パラメーターが正しいことを確認し、操作を再実行してください。 |
122501 | ERROR | DB instance "%s" is already protected on "%s". | 原因: {server} で LifeKeeper によってすでに保護されている Oracle データベースインスタンス {sid} を保護しようとしました。 処置: 別のデータベースインスタンス {sid} を LifeKeeper の保護用に選択する必要があります。 |
122502 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護されている Oracle インスタンスの内部表現を作成中に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから操作を再試行する必要があります。 |
122503 | ERROR | Unable to locate the oratab file "%s" on "%s". | 原因: {server} のデフォルトまたは代替ロケーションで oratab ファイルが見つかりませんでした。 処置: oratab ファイルが存在しており、Oracle ユーザの適切な権限を持っていることを確認してください。「create」操作を完了するには有効な oratab ファイルが必要です。 |
122504 | ERROR | Unable to determine Oracle user for "%s" on "%s". | 原因: Oracle Application Recovery Kit は Oracle データベースインストールバイナリの所有権を特定できませんでした。 処置: Oracle バイナリの所有者は {server} の有効な非 root ユーザである必要があります。Oracle データベース所有権の権限と所有権を修正し、操作を再試行してください。 |
122505 | ERROR | The Oracle database "%s" is not running or no open connections are available on "%s". | 原因: データベースインスタンス {sid} が実行されていません。またはデータベースへの接続が、指定された認証情報では使用できませんでした。 処置: 「create」操作を完了するには、データベースインスタンス {sid} を {server} で起動し、正しい認証情報を指定する必要があります。 |
122506 | ERROR | Unable to determine Oracle dbspaces and logfiles for "%s" on "%s". | 原因: 必要なテーブルスペース、ログファイル、関連データベースファイルの場所を特定するクエリーが失敗しました。これは、内部データベースエラーが原因の可能性もあります。 処置: 隣接するログメッセージおよび関連エラーで詳細を確認してください。Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122507 | ERROR | Unknown chunk type found for "%s" on "%s". | 原因: 指定したテーブルスペース、ログファイル、または必要なデータベースファイルが LifeKeeper でサポートされているファイルまたはキャラクタデバイスタイプではありません。 処置: 指定したファイル {database_file} は既存のキャラクタデバイスまたはファイルを参照する必要があります。Oracle インストールドキュメントを参照し、指定したファイル {database_file} を、サポートされているファイルまたはキャラクタデバイスタイプとして再作成してください。 |
122508 | ERROR | DB Chunk "%s" for "%s" on "%s" does not reside on a shared file system. | 原因: 指定したテーブルスペース、ログファイル、またはその他の必要なデータベースファイル {database_file} は、クラスタ内の他のシステムと共有されているファイルシステムに存在します。 処置: コミュニケーションパスが正常に作成されたことを確認するには、LifeKeeper UI または「lcdstatus (1M)」を使用してください。ストレージ保護に必要なアプリケーションリカバリキットがインストールされたことを確認するには、「rpm」を使用してください。ファイルが実際には共有ストレージにないことを確認し、ない場合は、共有ストレージデバイスに移動してください。 |
122510 | ERROR | File system create failed for "%s" on "%s". Reason: | 原因: LifeKeeper は、指定したサーバ {server} でリソース {filesystem} を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから 「create」操作を再試行する必要があります。 |
122511 | ERROR | %s | 原因: メッセージに「filesyshier」コマンドの結果が含まれています。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122513 | ERROR | Dependency creation between Oracle database "%s (%s)" and the dependent resource "%s" on "%s" failed. Reason: | 原因: LifeKeeper は、データベースリソース {tag} と必要な子リソース {childtag} との間に依存関係を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。問題が修正されている場合は、{tag} と {childtag} との間の依存関係を手動で作成できる可能性があります。 |
122514 | ERROR | Unable to "%s" on "%s" during resource create. | 原因: Oracle Application Recovery Kit は、「rlslocks」コマンドで管理ロックを解除できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
122516 | ERROR | Raw device resource created failed for "%s" on "%s". Reason: | 原因: LifeKeeper は、指定したサーバ {server} でリソース {raw device} を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから 「create」操作を再試行する必要があります。 |
122519 | ERROR | In-service attempted failed for tag "%s" on "%s". | 原因: {server} の {tag} に対する「perform_action」コマンドがデータベース {sid} の開始に失敗しました。in service 操作に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから 「create」操作を再試行する必要があります。 |
122521 | ERROR | Create of app "%s" on "%s" failed with return code of "%d". | 原因: 内部アプリケーションタイプを作成する「app_create」コマンドの実行中にエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122522 | ERROR | Create of typ "%s" for app "%s" on "%s" failed with return code of "%d". | 原因: 内部リソースタイプを作成する「typ_create」コマンドの実行中にエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122523 | ERROR | Create of resource tag via "newtag" on "%s" failed. | |
122524 | ERROR | Setting "resstate" for resource "%s" on "%s" failed with return code of "%d". | 原因: リソースの状態を {state} に設定する「ins_setstate」コマンドの実行中にエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122525 | ERROR | The values specified for the target and the template servers are the same: "%s". | 原因: 「extend」操作でターゲットサーバとテンプレートサーバで指定した値が同じでした。 処置: {target server} と {template server} に対して正しいパラメータを指定する必要があります。{target server} は、{tag} が拡張されるサーバです。 |
122526 | ERROR | Unable to locate the oratab file in "/etc" or in "%s" on "%s". | 原因: {server} のデフォルトまたは代替ロケーションで oratab ファイルが見つかりませんでした。 処置: oratab ファイルが存在しており、Oracle ユーザの適切な権限を持っていることを確認してください。「extend」操作を完了するには有効な oratab ファイルが必要です。 |
122527 | ERROR | Unable to retrieve the Oracle user on "%s". | 原因: 「canextend」操作または「extend」操作の間に {template server} から Oracle ユーザを取得できませんでした。 処置: Oracle バイナリの所有者は、{target server} と {template server} の有効なユーザである必要があります。Oracle データベース所有権の権限と所有権を修正し、操作を再試行してください。 |
122528 | ERROR | The Oracle user and/or group information for user "%s" does not exist on the server "%s". | 原因: LifeKeeper は、サーバ {server} の Oracle ユーザ {user} に対して Oracle ユーザおよびグループ情報を検索できません。 処置: 指定した {server} に Oracle ユーザ {user} が存在していることを確認してください。ユーザ {user} が存在しない場合、クラスタ内のすべてのサーバで、同じ uid および gid を使用して作成する必要があります。 |
122529 | ERROR | The id for user "%s" is not the same on template server "%s" and target server "%s". | 原因: ターゲットサーバ {target server} にある Oracle ユーザ {user} のユーザ ID が、テンプレートサーバ {template server} にあるユーザ {user} の値と一致しません。 処置:Oracle ユーザ {user} のユーザ ID はクラスタ内のすべてのサーバで一致している必要があります。ユーザ ID の不一致をすべてのサーバで手動で修正し、「extend」操作を再試行する必要があります。 |
122530 | ERROR | The group id for user "%s" is not the same on template server "%s" and target server "%s". | 原因: ターゲットサーバ {target server} にある Oracle ユーザ {user} のグループ ID が、テンプレートサーバ {template server} にあるユーザ {user} の値と一致しません。 処置: Oracle ユーザ {user} のグループ ID はクラスタ内のすべてのサーバで一致している必要があります。グループ ID の不一致をすべてのサーバで手動で修正し、「extend」操作を再試行する必要があります。 |
122532 | ERROR | No file system or raw devices found to extend for "%s" on "%s". | 原因: サーバ {template server} で Oracle リソース {tag} の依存ファイルシステムまたは Raw デバイスリソースが見つかりません。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
122533 | WARN | A RAMDISK (%s) was detected in the ORACLE Database configuration for "%s" on "%s". LifeKeeper cannot protect RAMDISK. This RAMDISK resource will not be protected by LifeKeeper! ORACLE hierarchy creation will continue. | 原因: 指定したテーブルスペース、ログファイル、またはその他のデータベースファイル {database_file} が ramdisk として検出されました。現在の LifeKeeper 製品では、このタイプのリソースに保護を適用できません。 処置: ramdisk は保護されません。すべての Oracle データベース操作で必要なデータベースファイル {database_file} が使用可能になるように手動で確認する必要があります。 |
122534 | ERROR | Failed to initialize object instance for Oracle sid "%s" on "%s". | 原因: 保護されている Oracle インスタンスの内部表現を作成中に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122537 | ERROR | Update of instance info field for "%s" on "%s" failed (%s). | 原因: 内部リソース情報フィールドを更新する「ins_setinfo」コマンドの実行中にエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122538 | ERROR | Initial connect with query buffer to database "%s" on "%s" failed, testing output. | 原因: データベースの状態を判別するために Oracle データベース {sid} に接続しようとしたところ、失敗しました。 処置: 指定した認証情報で接続が失敗しました。隣接するログメッセージおよび関連エラーで詳細を確認してください。Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122542 | ERROR | The "%s [ %s ]" attempt of the database "%s" appears to have failed on "%s". | 原因: データベースインスタンス {sid} に対して メソッド {action_method} を使用した Oracle アクション {action} がサーバ {server} で失敗しました。 処置: 隣接するログメッセージおよび関連エラーで詳細を確認してください。Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122543 | ERROR | All attempts to "%s" database "%s" on "%s" failed | 原因: サーバ {server} の Oracle データベース {sid} に対するアクション {action} を実行するためのあらゆる取り組みが失敗しました。 処置: 隣接するログメッセージおよび関連エラーで詳細を確認してください。Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122544 | ERROR | Update of "%s" sid "%s" on "%s" failed. Reason: "%s" "%s" failed: "%s". | 原因: データベース {sid} の oratab エントリを更新しようとしている際に予期しないエラーが発生しました。このエラーは oratab ファイルを開こうとしている間に発生しました。 処置: システム起動時にデータベースが自動で起動されないようにするために、{sid} の oratab ファイルエントリを手動で更新する必要があります。 |
122545 | ERROR | Unable to locate the oratab file in "/etc" or in "%s" on "%s". | 原因: {server} のデフォルトまたは代替ロケーションで oratab ファイルが見つかりませんでした。 処置: oratab ファイルが存在しており、Oracle ユーザの適切な権限を持っていることを確認してください。「extend」操作を完了するには有効な oratab ファイルが必要です。 |
122546 | ERROR | Unable to open file "%s" on "%s" (%s). | 原因: エラー {error} のため、サーバ {server} では、指定したファイル {file} を開くことも、ファイルにアクセスすることもできませんでした。 処置: 指定したファイル {file} の有無や権限を確認してください。隣接するログメッセージおよび関連エラーで詳細を確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122547 | ERROR | (cleanUpPids):Forcefully killing hung pid(s):pid(s)="%s" | 原因: プロセス {pid} が正常終了するための要求に応答できませんでした。プロセス {pid} は強制終了します。 処置: コマンドラインで、プロセス {pid} が終了していることを確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。 |
122548 | ERROR | Unable to locate the DB utility (%s/%s) on this host. | 原因: {path/utility} にある Oracle バイナリおよび必要なデータベースユーティリティ {utility} がこのサーバ {server} では見つかりませんでした。 処置: Oracle バイナリおよび必要なソフトウェアユーティリティがインストールされ、サーバ {server} で適切に設定されていることを確認してください。Oracle バイナリを各ノードにローカルインストールするか、クラスタ内の全ノードで使用可能な共有ストレージに配置する必要があります。 |
122549 | ERROR | Oracle internal error or non-standard Oracle configuration detected. Oracle User and/or Group set to "root". | 原因: 検出された Oracle データベースインストールの所有権が、ルートユーザまたはルートグループに解決されています。ルートによる Oracle インストールの所有権は標準的ではない設定です。 処置: Oracle バイナリの所有者は {server} の有効な非 root ユーザである必要があります。Oracle データベース所有権の権限と所有権を修正し、操作を再試行してください。 |
122550 | ERROR | Initial inspection of "%s" failed, verifying failure or success of received output. | 原因: 前の Oracle クエリー {query} またはコマンド {cmd} が成功を返すことができませんでした。 処置: 隣接するログメッセージおよび関連エラーで詳細を確認してください。Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122551 | ERROR | Logon failed with "%s" for "%s" on "%s". Please check username/password and privileges. | 原因: 認証情報 {credentials} を使用してサーバ {server} のデータベースインスタンス {sid} へのログオンに失敗しました。無効なユーザ {user} またはパスワードが指定されました。 処置: Oracle データベースユーザ {user} およびパスワード {password} が有効であることを確認してください。また、Oracle データベースユーザ {user} は、試行されるアクションに対して十分な権限を持っている必要があります。 |
122552 | ERROR | %s | 原因: メッセージに「sqlplus」コマンドの結果が含まれています。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
122553 | ERROR | Unable to open file "%s" on "%s" (%s). | 原因: エラー {error} のため、サーバ {server} では、指定したファイル {file} を開くことも、ファイルにアクセスすることもできませんでした。 処置: 指定したファイル {file} の有無や権限を確認してください。隣接するログメッセージおよび関連エラーで詳細を確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122554 | ERROR | The tag "%s" on "%s" is not an Oracle instance or it does not exist. | 原因: サーバ {server} の指定されたタグ {tag} は、既存の有効な Oracle リソースインスタンスを参照していません。 処置: UI または「lcdstatus (1M)」を使用して、リソースタグ {tag} の有無を確認してください。コマンド「ora-display」を使用するには、リソースタグ {tag} が Oracle リソースインスタンスである必要があります。 |
122555 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: Oracle リソースインスタンスの認定ユーザ、パスワード、データベースロールを更新している際に、保護されている Oracle インスタンスの内部表現を作成しようとしたところ、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122557 | ERROR | Update of user and password failed for "%s" on "%s". | 原因: リソースタグ {tag} のユーザおよびパスワードを更新する要求に失敗しました。指定した認証情報では、サーバ {server} に対する初期検証/接続ができませんでした。 処置: 目的の操作に対して正しい認証情報 {user/password} が指定されていることを確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122559 | ERROR | Update of user and password failed for "%s" on "%s". | 原因: サーバ {server} のリソースタグ {tag} のユーザおよびパスワード情報の更新に失敗しました。 処置: 目的の操作に対して正しい認証情報 {user/password} が指定されていることを確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122562 | ERROR | Unable to find the Oracle executable "%s" on "%s". | 原因: 必要な Oracle 実行ファイル {exe} がこのサーバ {server} では見つかりませんでした。 処置: Oracle バイナリおよび必要なソフトウェアユーティリティがインストールされ、サーバ {server} で適切に設定されていることを確認してください。Oracle バイナリを各ノードにローカルインストールするか、クラスタ内の全ノードで使用可能な共有ストレージに配置する必要があります。 |
122566 | ERROR | Unable to find Oracle home for "%s" on "%s". | 原因: Oracle ホームディレクトリ {Oracle home} には、Oracle インスタンス {sid} の正常な動作に必要なファイルが含まれていないようです。 処置: Oracle ホームディレクトリ {Oracle home} に Oracle バイナリ、有効な spfile{sid}.ora、または init{sid}.ora ファイルが含まれていることをコマンドラインで確認してください。 |
122567 | ERROR | Oracle SID mismatch. The instance SID "%s" does not match the SID "%s" specified for the command. | 原因: 保護されている Oracle インスタンスの内部表現を作成中に予期しないエラーが発生しました。指定した内部 ID {id} が、予想した SID {sid} と一致しません。 処置: パラメータが正しいことを確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122568 | ERROR | DB Processes are not running on "%s". | 原因: Oracle インスタンスのプロセスチェックで、サーバ {server} で実行されているプロセスは見つかりませんでした。 処置: ローカルリカバリが有効になっている場合、Oracle インスタンスはローカルで再起動されます。隣接するログメッセージで詳細および関連メッセージを確認してください。 |
122572 | ERROR | Failed to create flag "%s" on "%s". | 原因: スタンバイノードへのフェイルオーバを促す Oracle ローカルリカバリ処理を制御するためのフラグを作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122574 | ERROR | all attempts to shutdown the database %s failed on "%s". | 原因: ローカルリカバリプロセス中に、おそらくデータベース接続数が上限に達したため、Oracle データベースのシャットダウンに失敗しました。 処置: Oracle ログで、許容接続数の上限に達したことによって起こった接続の障害の有無を確認してください。その障害が見つかった場合は、接続数を増やしてください。また、ローカルリカバリの実行による quickCheck の障害発生が、接続の失敗を引き起こさないように、LK_ORA_NICE を 1 に設定してください。 |
122575 | ERROR | Usage: %s %s | |
122576 | ERROR | Usage: %s %s | |
122577 | ERROR | Usage: %s %s | |
122578 | ERROR | Usage: %s %s | |
122579 | ERROR | Usage: %s %s | |
122580 | ERROR | Usage: %s %s | |
122581 | ERROR | Usage: %s %s | |
122582 | ERROR | Usage: %s %s | |
122583 | ERROR | Usage: %s %s | |
122584 | ERROR | Usage: %s %s | |
122585 | ERROR | Usage: %s %s | |
122586 | ERROR | Usage: %s %s | |
122587 | ERROR | Usage: %s %s | |
122588 | ERROR | Usage: %s %s | |
122590 | ERROR | Usage: %s %s | |
122591 | ERROR | Usage: %s %s | |
122592 | ERROR | Usage: %s %s | |
122593 | ERROR | Usage: %s %s | |
122594 | ERROR | Usage: %s %s | |
122595 | ERROR | Usage: %s %s | |
122596 | ERROR | Usage: %s %s | |
122597 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護されている Oracle インスタンスの内部表現を作成中、拡張前のチェックの際に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、pre-extend を再試行してください。 |
122598 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 作成中の Oracle インスタンスの内部表現を作成しているときに、Oracle ホームディレクトリの有効性を確認しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、「create」を再試行してください。 |
122599 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護中の Oracle インスタンスの内部表現を作成しているときに、テンプレートシステムで Oracle ユーザをルックアップしようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、extend を再試行してください。 |
122600 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護中の Oracle インスタンスの内部表現を作成しているときに、リソースプロパティを表示しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、リソースプロパティの表示を再試行してください。 |
122601 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護中の Oracle インスタンスの内部表現を作成しているときに、有効なデータベース認証を確認しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、コマンドを再試行してください。 |
122603 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護中の Oracle インスタンスの内部表現を作成しているときに、Oracle リソースインスタンスに対してヘルスチェックを実行しようとして、予期しないエラーが発生しました。 処置: 正しい引数が quickCheck コマンドに渡されていることを確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、restore を再試行してください。 |
122604 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護中の Oracle インスタンスの内部表現を作成しているときに、Oracle リソースインスタンスに対してローカルリカバリを実行しようとして、予期しないエラーが発生しました。 処置: 正しい引数が「recover」コマンドに渡されていることを確認し、隣接するログメッセージと関連メッセージで詳細を確認してください。レポートされているエラーを修正してから、recover を再試行してください。 |
122606 | ERROR | The Oracle database "%s" is not running or no open connections are available on "%s". | 原因: データベースインスタンス {sid} が実行されていません。またはデータベースへの接続が、指定された認証情報では使用できません。 処置: 選択した操作を完了するには、データベースインスタンス {sid} を {server} で起動し、正しい認証情報を指定する必要があります。 |
122607 | ERROR | The Oracle database "%s" is not running or no open connections are available on "%s". | 原因: データベースインスタンス {sid} が実行されていません。またはデータベースへの接続が、指定された認証情報では使用できません。 処置: 選択した操作を完了するには、データベースインスタンス {sid} を {server} で起動し、正しい認証情報を指定する必要があります。 |
122608 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 「remove」操作で、Oracle リソースを Out of Service にするために必要なリソースオブジェクトインスタンスを作成できませんでした。 処置: 正しい引数が「remove」コマンドに渡されていることを確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、restore を再試行してください。 |
122609 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 「restore」操作で、Oracle リソースを In Service にするために必要なリソースオブジェクトインスタンスを作成できませんでした。 処置: 正しい引数が「restore」コマンドに渡されていることを確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、「restore」を再試行してください。 |
122610 | ERROR | Unable to "%s" on "%s" during resource create. | 原因: Oracle Application Recovery Kit は、リソース作成中に「getlocks」コマンドで管理ロックを作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、create を再試行してください。 |
122611 | ERROR | %s | 原因: 要求された親 Oracle リソースと子 File System リソースとの間の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、create 操作を再試行してください。 |
122612 | ERROR | %s | 原因: 要求された親 Oracle リソースと子 Raw リソースとの間の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、create 操作を再試行してください。 |
122613 | ERROR | %s | 原因: 要求された親 Oracle リソースと子 Raw リソースとの間の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、create 操作を再試行してください。 |
122614 | ERROR | %s | 原因: 要求された親 Oracle リソースと子 Listener リソースとの間の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、create 操作を再試行してください。 |
122616 | ERROR | %s | 原因: Oracle データベースの要求された起動またはシャットダウンに失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、「restore」または「remove」操作を再試行してください。 |
122618 | ERROR | Dependency creation between Oracle database "%s (%s)" and the dependent resource "%s" on "%s" failed. Reason: | 原因: LifeKeeper は、データベースリソース {tag} と必要な子リソース {childtag} との間に依存関係を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。問題が修正されている場合は、{tag} と {childtag} との間の依存関係を手動で作成できる可能性があります。 |
122619 | ERROR | Dependency creation between Oracle database "%s (%s)" and the dependent resource "%s" on "%s" failed. Reason: | 原因: LifeKeeper は、データベースリソース {tag} と必要な子リソース {childtag} との間に依存関係を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。問題が修正されている場合は、{tag} と {childtag} との間の依存関係を手動で作成できる可能性があります。 |
122620 | ERROR | The tag "%s" on "%s" is not an Oracle instance or it does not exist. | |
122621 | ERROR | The tag "%s" on "%s" is not an Oracle instance or it does not exist. | |
122622 | ERROR | The tag "%s" on "%s" is not an Oracle instance or it does not exist. | |
122623 | ERROR | The tag "%s" on "%s" is not an Oracle instance or it does not exist. | |
122625 | ERROR | Unable to find the Oracle executable "%s" on "%s". | 原因: quickCheck プロセスが、Oracle の実行可能ファイル「sqlplus」を見つけることができませんでした。 処置: Oracle 設定を確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされている問題を修正してください。 |
122626 | ERROR | Unable to find the Oracle executable "%s" on "%s". | 原因: 削除プロセスが、Oracle の実行可能ファイル「sqlplus」を見つけることができませんでした。 処置: Oracle 設定を確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされている問題を修正してください。 |
122627 | ERROR | Unable to find the Oracle executable "%s" on "%s". | 原因: リストアプロセスが、Oracle の実行可能ファイル「sqlplus」を見つけることができませんでした。 処置: Oracle 設定を確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされている問題を修正してください。 |
122628 | ERROR | Unable to find the Oracle executable "%s" on "%s". | 原因: 復旧プロセスが、Oracle の実行可能ファイル「sqlplus」を見つけることができませんでした。 処置: Oracle 設定を確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされている問題を修正してください。 |
122632 | ERROR | Oracle SID mismatch. The instance SID "%s" does not match the SID "%s" specified for the command. | 原因: 削除の際に、削除プロセスに渡されるリソースインスタンス {sid} が、{sid} の内部リソースインスタンス情報と一致しません。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122633 | ERROR | Oracle SID mismatch. The instance SID "%s" does not match the SID "%s" specified for the command. | 原因: リストアの際に、restore に渡されるリソースインスタンス {sid} が、{sid} の内部リソースインスタンス情報と一致しません。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122634 | ERROR | Oracle SID mismatch. The instance SID "%s" does not match the SID "%s" specified for the command. | 原因: リソースリカバリの際に、recovery に渡されるリソースインスタンス {sid} が、{sid} の内部リソースインスタンス情報と一致しません。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122636 | ERROR | END failed hierarchy "%s" of resource "%s" on server "%s" with return value of %d | 原因:{server} で Oracle リソース階層 {tag} の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122638 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因:サーバ {server} の Oracle データベースリソース {tag} で作成アクションに失敗しました。シグナル {sig} が作成プロセスによって受信されました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから操作を再試行する必要があります。 |
122640 | ERROR | Error creating resource "%s" on server "%s" | 原因: Oracle リソースインスタンス {tag} を {server} に作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122641 | ERROR | Error creating resource "%s" on server "%s" | 原因: Oracle リソースインスタンス {tag} を {server} に作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122642 | ERROR | Error creating resource "%s" on server "%s" | 原因: Oracle リソースインスタンス {tag} を {server} に作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122643 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122644 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: リソースインスタンス情報 {tag} を {server} で取得しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正し、extend を再試行してください。 |
122645 | ERROR | Cannot access canextend script "%s" on server "%s" | 原因: {server} で依存関係の子リソース用の 「canextend」スクリプトが見つからなかったので、LifeKeeper は拡張前のチェックを実行できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122646 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: リソースインスタンス情報 {tag} を {server} で取得しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正し、extend を再試行してください。 |
122647 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122648 | ERROR | Resource with either matching tag "%s" or id "%s" already exists on server "%s" for App "%s" and Type "%s" | 原因: データベースリソースの拡張中に、同じ {tag} または {id} で異なるリソースアプリケーションおよびタイプを使用しているリソースインスタンスが見つかりました。 処置: リソース ID は一意のものにする必要があります。Oracle リソースインスタンスに合致する ID のリソースインスタンスを削除してください。 |
122649 | ERROR | Error creating resource "%s" on server "%s" | 原因: Oracle リソースインスタンス {tag} を {server} に作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122650 | ERROR | Cannot access extend script "%s" on server "%s" | 原因: 依存関係にある子リソースのスクリプト {extend} がサーバ {server} で見つけられなかったので、サーバ {server} にデータベースリソース {resource} を拡張する要求が失敗しました。 処置: LifeKeeper の設定を確認してください。 |
122651 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: 依存関係にある子リソースの拡張でエラーが発生したため、サーバ {server} にデータベースリソース {resource} を拡張する要求が失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122654 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: quickCheck プロセスがシグナルを受信したため、データベース {sid} のヘルスチェックが終了しました。これはおそらく、quickCheck プロセスの処理に、割り当てられているよりも長い時間が必要となっているためです。 処置: Oracle リソースのヘルスチェック時間は ORACLE_QUICKCHECK_TIMEOUT の設定で制御します。ヘルスチェックプロセスの完了に今より長い時間を割り当てる場合は、45 秒よりも大きな値に設定してください。 |
122655 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: 削除プロセスがシグナルを受信したため、データベース {sid} を「Out of Service」にする要求が終了しました。これはおそらく、削除プロセスの処理に、割り当てられているよりも長い時間が必要となっているためです。 処置: Oracle リソースの削除時間は ORACLE_REMOVE_TIMEOUT の設定で制御します。削除プロセスの完了に今より長い時間を割り当てる場合は、240 秒よりも大きな値に設定してください。 |
122659 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: リストアプロセスがシグナルを受信したため、データベース {sid} を「In Service」にする要求が終了しました。これはおそらく、リストアプロセスの処理に、割り当てられているよりも長い時間が必要となっているためです。 処置: Oracle リソースのリストア時間は ORACLE_RESTORE_TIMEOUT の設定で制御します。リストアプロセスの完了に今より長い時間を割り当てる場合は、240 秒よりも大きな値に設定してください。 |
122663 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: リカバリプロセスがシグナルを受信したため、失敗したデータベースのリカバリが終了しました。これはおそらく、リカバリプロセスの処理に、割り当てられているよりも長い時間が必要となっているためです。 処置: Oracle リソースのリカバリ時間は ORACLE_RESTORE_TIMEOUT と ORACLE_REMOVE_TIMEOUT の設定で制御します。リカバリの完了に今より長い時間を割り当てる場合は、一方または両方を 240 秒よりも大きな値に設定してください。 |
122670 | ERROR | Update of "%s" sid "%s" on "%s" failed. Reason: "%s" "%s" failed: "%s". | 原因: データベース {sid} の oratab エントリを更新しようとしている際に予期しないエラーが発生しました。更新プロセスで使用する一時ファイルを開こうとして、エラーが発生しました。 処置: システム起動時にデータベースが自動で起動されないようにするために、{sid} の oratab ファイルエントリを手動で更新する必要があります。 |
122671 | ERROR | Update of "%s" sid "%s" on "%s" failed. Reason: "%s" "%s" failed: "%s". | 原因: データベース {sid} の oratab エントリを更新しようとしている際に予期しないエラーが発生しました。更新プロセスで使用する一時ファイルを閉じようとして、エラーが発生しました。 処置: システム起動時にデータベースが自動で起動されないようにするために、{sid} の oratab ファイルエントリを手動で更新する必要があります。 |
122672 | ERROR | Update of "%s" sid "%s" on "%s" failed. Reason: "%s" "%s" failed: "%s". | 原因: データベース {sid} の oratab エントリを更新しようとしている際に予期しないエラーが発生しました。一時ファイルの名前を oratab に変更しようとして、エラーが発生しました。 処置: システム起動時にデータベースが自動で起動されないようにするために、{sid} の oratab ファイルエントリを手動で更新する必要があります。 |
122673 | ERROR | Unable to log messages queued while running as oracle user %s on %s. Reason: $! | 原因: メッセージをログファイルに追加しようとして、予期しないエラー {reason} が発生しました。これらのメッセージは、Oracle ユーザとして実行している間に生成されました。 処置: 障害に関する理由を参照し、修正処置を実行してください。 |
122674 | ERROR | Unable to open %s Reason: %s. | 原因: Oracle データベースへの接続を開き、データベース {cmd} を実行しようとしたときに、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。また、Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122680 | ERROR | Unable to find Oracle home for “%s” on “%s”. | |
122681 | ERROR | Failed to create object instance for Oracle on "%s". | |
122682 | ERROR | Unable to find the Oracle executable "%s" on "%s". | |
122683 | ERROR | Backup node %s is unreachable; abort username/password changes. | |
122684 | ERROR | The restore of %s has timed out on server %s. The default TIMEOUT is 300 seconds. To increase the TIMEOUT, set ORACLE_RESTORE_TIMEOUT in /etc/default/LifeKeeper. | |
122685 | ERROR | The remove of %s has timed out on server %s. The default TIMEOUT is 300 seconds. To increase the TIMEOUT, set ORACLE_REMOVE_TIMEOUT in /etc/default/LifeKeeper. | |
122686 | ERROR | The quickCheck of %s has timed out on server %s. The default TIMEOUT is 45 seconds. To increase the TIMEOUT, set ORACLE_QUICKCHECK_TIMEOUT in /etc/default/LifeKeeper. | |
122687 | ERROR | Usage: %s %s | |
123006 | FATAL | Unknown version %s of IP address | 原因: IP アドレスが IPv4 でも IPv6 でも有効ではないようです。 処置: 有効な IP アドレスを指定してください。 |
123008 | ERROR | No pinglist found for %s. | 原因: この IP アドレスの pinglist を開こうとして問題が発生しました。 処置: この IP アドレスの pinglist を指定していることを確認してください。 |
123009 | ERROR | List ping test failed for virtual IP %s | 原因: ping リストのどのアドレスからも応答を受信しませんでした。 処置: このノードのネットワーク接続および ping リストの IP が存在するシステムを確認してください。 |
123013 | ERROR | Link check failed for virtual IP %s on interface %s. | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、物理レイヤー接続にリンクが存在しないことを示します。 処置: インターフェースの物理接続を確認し、物理レイヤーリンクを有効にしてください。 |
123015 | ERROR | Link check failed for virtual IP %s on interface %s. | 原因: 要求したインターフェースは bonding インターフェースで、スレーブのいずれか 1 つが「NO-CARRIER」です。これは、物理レイヤー接続にリンクが存在しないことを示します。 処置: スレーブインターフェースの物理接続を確認し、物理レイヤーリンクを有効にしてください。 |
123024 | ERROR | IP address seems to still exist somewhere else. | 原因: IP アドレスはネットワークの別の場所で使用中のようです。 処置: 別の IP アドレスを選択して使用するか、この IP アドレスを特定して、現在の使用を無効にしてください。 |
123027 | ERROR | END failed %s of “%s” on server “%s” due to a “%s” signal | 原因: 仮想 IP の quickCheck がタイムアウトのため終了しました。 処置: 条件を修正するか、/etc/default/LifeKeeper の IP_QUICKCHECK_TIMEOUT でより適切な値を指定します。 |
123037 | ERROR | must specify machine name containing primary hierarchy | 原因: creIPhier に指定した引数が不十分です。 処置: 必要な引数をすべて creIPhier に指定してください。 |
123038 | ERROR | must specify IP resource name | 原因: creIPhier に渡された引数が不十分です。 処置: 必要な引数をすべて creIPhier に指定してください。 |
123039 | ERROR | must specify primary IP Resource tag | 原因:「creIPhier」コマンドにプライマリ IP リソースタグの引数が指定されていません。 処置: 必要な引数をすべて指定してください。 |
123042 | ERROR | An unknown error has occurred in utility validmask on machine %s. | 原因: 「validmask」ユーティリティの実行中に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
123045 | ERROR | An unknown error has occurred in utility getlocks. | 原因: 「getlocks」ユーティリティの実行中に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
123053 | ERROR | Cannot resolve hostname %s | 原因: IP アドレスに対してホスト名が指定されましたが、システムはホスト名を IP アドレスに解決できませんでした。 処置: ホスト名が正確かどうかを確認してから、名前の解決(DIS または /etc/hosts)が正常に機能しており、ホスト名の IP を返すことを確認してください。 |
123055 | ERROR | An unknown error has occurred in utility %s on machine %s. | 原因: IP リソースの作成中に障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
123056 | ERROR | create ip hierarchy failure: perform_action failed | 原因:作成中に IP アドレスをリストアしようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
123059 | ERROR | Resource already exists on machine %s | 原因: すでに存在する IP アドレスを作成しようとしました。 処置: 既存のリソースを再利用するか、すでに存在している IP アドレスを手動で削除するか、別の IP アドレスを使用してください。 |
123060 | ERROR | ins_create failed on machine %s | 原因: IP リソースの作成中に予期しない障害が発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
123064 | ERROR | An unknown error has occurred in utility %s on machine %s. | 原因: IP リソースの依存関係を作成中に障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
123066 | ERROR | An error occurred during creation of LifeKeeper application=comm on %s. | 原因: 「app_create」の呼び出し中に障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
123068 | ERROR | An error occurred during creation of LifeKeeper resource type=ip on %s. | 原因: 「typ_create」の呼び出し中に障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
123089 | ERROR | Link check failed for virtual IP %s on interface %s. | |
123091 | ERROR | the link for interface %s is down | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、物理レイヤー接続にリンクが存在しないことを示します。 処置: インターフェースの物理接続を確認し、物理レイヤーリンクを有効にしてください。 |
123093 | ERROR | the ping list check failed | 原因: ping リストのどのアドレスからも応答を受信しませんでした。 処置: このノードのネットワーク接続および ping リストの IP が存在するシステムを確認してください。 |
123095 | ERROR | broadcast ping failed | 原因: ブロードキャスト ping から応答を受信しませんでした。 処置: サブネット上の 1 つ以上のホストがブロードキャスト ping に応答することを確認してください。仮想 IP が正しいネットワークインターフェースにあることを確認してください。ブロードキャスト ping ではなく、pinglist の使用を検討してください。 |
123096 | ERROR | $msg | 原因: 仮想 IP の実行可能性の判定に使用するブロードキャスト ping に失敗しました。 処置: このリソースの ping リストがプロパティパネルで正常に設定されていることを確認するか、/etc/default/LifeKeeper 設定ファイルに NOBCASTPING=1 を追加してブロードキャスト ping のチェックを確実に無効にしてください。 |
123097 | ERROR | exec_list_ping(): broadcast ping failed. | 原因: 仮想 IP の実行可能性の判定に使用するブロードキャスト ping に失敗しました。 処置: このリソースの ping リストがプロパティパネルで正常に設定されていることを確認するか、/etc/default/LifeKeeper 設定ファイルに NOBCASTPING=1 を追加してブロードキャスト ping のチェックを確実に無効にしてください。 |
123299 | ERROR | Unable to open %s. Reason %s | |
124004 | FATAL | resource tag name not specified | 原因: 「quickCheck」操作で無効な引数が指定されました。 処置: 正しい引数が渡されたことを確認してください。 |
124005 | FATAL | resource id not specified | 原因: 「quickCheck」操作で無効な引数が指定されました。 処置: 正しい引数が渡されたことを確認してください。 |
124007 | FATAL | Failed to get resource information | 原因: ファイルシステムリソースの情報フィールドに正しい情報が含まれていません。 処置: リソースの情報フィールドに正しい情報を入力するか、最近の「lkbackup」からシステムをリストアして元の情報フィールドをリストアします。 |
124008 | ERROR | getId failed | 原因: ファイルシステムリソースは基本ディスクデバイスを見つけられませんでした。 処置: 隣接するログメッセージで詳細を確認してください。リソース階層が有効であること、および必要なストレージキットがすべてインストールされていることを確認してください。 |
124009 | ERROR | LifeKeeper protected filesystem is in service but quickCheck detects the following error: | 原因: ファイルシステムキットはリソースに問題を発見しました。 処置: この直後に表示されるメッセージで詳細を確認してください。 |
124010 | ERROR | "$id" is not mounted | 原因: ファイルシステムリソースがマウントされていません。 処置: 処置は必要ありません。ローカルリカバリでリソースの再マウントを許可してください。 |
124011 | ERROR | "$id" is mounted but with the incorrect mount options (current mount option list: $mntopts, expected mount option list: $infoopts) | 原因: ファイルシステムリソースが不正にマウントされています。 処置: 処置は必要ありません。ローカルリカバリでリソースの再マウントを許可してください。 |
124012 | ERROR | "$id" is mounted but on the wrong device (current mount device: $tmpdev, expected mount device: $dev) | 原因: ファイルシステムリソースに誤ったデバイスがマウントされています。 処置: 処置は必要ありません。ローカルリカバリでリソースの再マウントを許可してください。 |
124015 | ERROR | LifeKeeper protected filesystem "$tag" ($id) is $percent% full ($blocksfree free blocks). | 原因: ディスク使用量が FILESYSFULLERROR の値(%)を超過しました。 処置: ファイルシステムからデータを削除または移行してください。 |
124016 | WARN | LifeKeeper protected filesystem "$tag" ($id) is $percent% full ($blocksfree free blocks). | 原因: ディスク使用量が FILESYSFULLWARNの値(%)を超過しました。 処置: ファイルシステムからデータを削除または移行してください。 |
124020 | FATAL | cannot find device information for filesystem $id | 原因: ファイルシステムリソースは基本ディスクデバイスを見つけられませんでした。 処置: 隣接するログメッセージで詳細を確認してください。リソース階層が有効であること、および必要なストレージキットがすべてインストールされていることを確認してください。 |
124029 | ERROR | Failed to find child resource. | 原因: ファイルシステムリソースは基本ディスクリソースを特定できませんでした。 処置: リソース階層が正しいことを確認してください。 |
124032 | FATAL | Script has hung. Exiting. | 原因: アンマウントする必要があるものの、マウントされているファイルシステムに開かれているファイルが複数のプロセスにありました。それらのプロセスの終了に時間がかかりすぎています。 処置: このエラーが続く場合は、マウントポイントを使用している可能性のあるすべてのソフトウェアを一時的に停止し、アンマウントできるようにしてください。ファイルシステムをそれでもアンマウントできない場合は、サポートに問い合わせてください。 |
124042 | ERROR | file system $fs failed unmount; will try again | 原因: アンマウントする必要があるものの、マウントされているファイルシステムに開かれているファイルが複数のプロセスにありました。場合によっては、それらのプロセスを消去するために、何度か操作を実行する必要があります。 処置: 処置は必要ありません。プロセスをそのまま続行してください。 |
124046 | ERROR | file system $fsname failed unmount | 原因: ファイルシステムをアンマウントできませんでした。 処置: このエラーが続く場合は、マウントポイントを使用している可能性のあるすべてのソフトウェアを一時的に停止し、アンマウントできるようにしてください。ファイルシステムをそれでもアンマウントできない場合は、サポートに問い合わせてください。 |
124049 | ERROR | Local recovery of resource has failed (err=$err) | 原因: ファイルシステムリソースに、ローカルでは修正できない問題があります。 処置: 処置は必要ありません。リソースを別のシステムにフェイルオーバできるようにしてください。 |
124051 | WARN | getId failed, try count : $cnt/$try | |
124052 | ERROR | \"$id\" is mounted but filesystem is shutdown state. | |
124054 | ERROR | Failed to change mount option from \”$old_opts\” to \”$new_opts\” for migration | |
124103 | ERROR | $ERRMSG Script was terminated for unknown reason | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124104 | ERROR | $ERRMSG Required template machine name is null | 原因: canextend 操作で無効な引数が指定されました。 処置: 引数が正しいことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124105 | ERROR | $ERRMSG Required template resource tag name is null | 原因: canextend 操作で無効な引数が指定されました。 処置: 引数が正しいことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124106 | ERROR | $ERRMSG Unable to access template resource "$TemplateTagName" | 原因: リソースの基本ディスク情報を特定できませんでした。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
124107 | ERROR | $ERRMSG Resource "$TemplateTagName" must have one and only one device resource dependency | 原因: リソースの階層にある基本デバイスが多すぎます。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
124108 | ERROR | $ERRMSG Unable to access template resource "$TemplateTagName" | 原因: テンプレートシステムでリソースを見つけられません。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
124109 | ERROR | $ERRMSG Can not access canextend for scsi/$DeviceResType resources on machine "$TargetSysName" | 原因: ターゲットシステムに、必須のコンポーネントがいくつか見つかりません。 処置: ターゲットシステムに正しいキットがすべてインストールされ、ライセンスされていることを確認してください。 |
124110 | ERROR | $ERRMSG Either filesystem "$TemplateLKId" is not mounted on "$TemplateSysName" or filesystem is not shareable with "$TargetSysName" | 原因: ファイルシステムがテンプレートシステムのサービス内にないか、ターゲットシステムに拡張するための要件を満たしていません。 処置: リソースがテンプレートシステムのサービス内にあることを確認し、ファイルシステムを拡張するための要件に関する製品ドキュメントを参照してください。 |
124111 | ERROR | $ERRMSG File system type "${FSType}" is not supported by the kernel currently running on "${TargetSysName}" | 原因: カーネルのサポートがないため、ファイルシステムのタイプをターゲットシステムにマウントできません。 処置: ターゲットシステムにそのカーネルモジュールがすべてインストールされており、正常に設定されていることを確認してから、リソースを拡張してください。 |
124112 | ERROR | must specify machine name containing primary hierarchy | 原因: creFShier 操作で無効な引数が指定されました。 処置: 通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124113 | ERROR | must specify primary ROOT tag | 原因: creFShier 操作で無効な引数が指定されました。 処置: 通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124114 | ERROR | must specify primary mount point | 原因: creFShier 操作で無効な引数が指定されました。 処置: 通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124115 | ERROR | must specify primary switchback type | 原因: creFShier 操作で無効な引数が指定されました。 処置: 通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124118 | ERROR | dep_remove failure on machine \""$PRIMACH"" for parent "$PRITAG" and child "$DEVTAG." | 原因: 依存関係の作成後のクリーンアップに失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124119 | ERROR | ins_remove failure on machine ""$PRIMACH"" for \"$PRITAG." | 原因: インスタンスの作成後のクリーンアップに失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124121 | ERROR | ins_remove failure on machine ""$PRIMACH" | 原因: リソースの作成後のクリーンアップに失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124122 | ERROR | $ERRMSG Script was terminated for unknown reason | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124123 | ERROR | $ERRMSG Required template machine name is null | 原因: depstoextend 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124124 | ERROR | $ERRMSG Required template resource tag name is null | 原因: depstoextend 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124125 | ERROR | $ERRMSG Unable to access template resource "$TemplateTagName" | 原因: リソースが基本ディスクリソースを特定できませんでした。 処置: 階層とすべての依存関係が正しいことを確認してから拡張してください。 |
124126 | ERROR | unextmgr failure on machine ""$PRIMACH" | 原因: 失敗したリソース拡張操作の後のクリーンアップに失敗しました。 処置: 残りのリソースを手動でクリーンアップし、隣接するログメッセージで詳細を確認してください。 |
124128 | ERROR | unextmgr failure on machine ""$PRIMACH"" for "$PRITAG." | 原因: 失敗したリソース拡張操作の後のクリーンアップに失敗しました。 処置: 残りのリソースを手動でクリーンアップし、隣接するログメッセージで詳細を確認してください。 |
124129 | ERROR | $ERRMSG Script was terminated for unknown reason | 原因: このメッセージは、通常の状態では表示されません。 処置: 追加のログメッセージを探して、詳細を確認してください。 |
124130 | ERROR | $ERRMSG Required template machine name is null | 原因: 拡張操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124131 | ERROR | $ERRMSG Required template resource tag name is null | 原因: 拡張操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124132 | ERROR | $ERRMSG Required target mount point is null | 原因: 拡張操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124133 | ERROR | $ERRMSG Unable to access template resource "$TemplateTagName" | 原因: 拡張中のタグがテンプレートシステムに存在しません。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
124134 | ERROR | $ERRMSG Detected conflict in expected tag name "$TargetTagName" on target machine. | 原因: 拡張するリソースと同じタグのリソースがすでにターゲットシステムにあります。 処置: 競合しているリソースのどちらか一方を別のタグで再作成してください。 |
124135 | ERROR | $ERRMSG Resource "$TemplateTagName" does not have required device resource dependency or unable to access this resource on template machine. | 原因: リソースまたは基本ディスクリソースがテンプレートシステムで見つかりません。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
124136 | ERROR | $ERRMSG Resource "$TemplateTagName" must have one and only one device resource dependency | 原因: リソースは、テンプレートシステムの階層内に複数の基本デバイスを持っています。 処置: 拡張する前に階層が正しいことを確認し、ファイルシステムリソースが単一のディスクリソースにのみ依存していることを確認してください。 |
124137 | ERROR | $ERRMSG Can not access extend for scsi/$DeviceResType resources on machine "$TargetSysName" | 原因: 所定のストレージタイプのサポートに必要なファイルがターゲットシステムにありません。 処置: 必要なキットがターゲットシステムにインストールされ、ライセンスされていることを確認してください。 |
124138 | ERROR | $ERRMSG Unable to access target device resource "$DeviceTagName" on machine "$TargetSysName" | 原因: 必要な基本ディスクリソースがターゲットシステムに存在していません。 処置: 隣接するログメッセージで詳細を確認し、ターゲットシステムが拡張対象リソースをホストするために正常に設定されていることを確認してください。 |
124139 | ERROR | $ERRMSG Unable to access template "/etc/mtab" file | 原因: ターゲットシステムがテンプレートシステムの /etc/mtab ファイルを読み取ることができません。 処置: 隣接するログメッセージで詳細を確認してください。/etc/mtab ファイルがテンプレートシステムに存在することを確認してください。 |
124140 | ERROR | $ERRMSG Unable to find mount point entry "$TemplateLKId" in template "/etc/mtab" file. Is template resource in-service? | 原因:リソースがテンプレートシステムにマウントされていないようです。 処置: リソースが in service であることを確認してから拡張してください。 |
124141 | ERROR | $ERRMSG Unable to find mount point "$TemplateLKId" mode on template machine | 原因: テンプレートシステムのマウントポイント詳細を特定できません。 処置: リソースが in service で、テンプレートシステムでアクセス可能であることを確認してから拡張してください。 |
124142 | ERROR | $ERRMSG Unable to create or access mount point "$TargetLKId" on target machine | 原因: ターゲットシステムでマウントポイントを作成できませんでした。 処置: マウントポイントの親ディレクトリが存在し、ターゲットシステムでアクセス可能であることを確認してください。 |
124143 | ERROR | $ERRMSG Two or more conflicting entries found in /etc/fstab on "$TargetSysName" | 原因: デバイスまたはマウントポイントはターゲットシステムで複数回マウントされているようです。 処置: マウントポイントがターゲットシステムにマウントされていないことを確認してから拡張してください。 |
124144 | ERROR | $ERRMSG Failed to create resource instance on "$TargetSysName" | 原因: ターゲットシステムでのリソースの作成に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。ターゲットサーバでログを必ず確認してください。 |
124145 | ERROR | $ERRMSG Failed to set resource instance state for "$TargetTagName" on \"$TargetSysName" | 原因: ターゲットシステムでソースの状態を OSU に変更できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124146 | ERROR | must specify machine name containing primary hierarchy | 原因: filesyshier 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124147 | ERROR | must specify primary mount point | 原因: filesyshier 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124149 | ERROR | create file system hierarchy failure | 原因: リソースインスタンスを検索するプロセスが失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124150 | ERROR | create file system hierarchy failure | 原因: システムが /etc/mtab ファイルの読み取りに失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124151 | ERROR | create file system hierarchy failure | 原因: マウントポイントを /etc/mtab ファイルで見つけられませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124152 | ERROR | create file system hierarchy failure | 原因: 基本ディスクリソースを見つけられませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124153 | ERROR | create file system hierarchy failure | 原因: ファイルシステムリソースの作成に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124154 | ERROR | create file system hierarchy failure | 原因: リソースの情報フィールドを更新できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124155 | ERROR | create file system hierarchy failure | 原因: スイッチバック戦略をリソースで設定できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124157 | ERROR | create file system hierarchy failure (conflicting entries in /etc/fstab\) | 原因: マウントポイントを /etc/fstab ファイルから削除できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124160 | ERROR | Unknown error in script filesysins, err=$err | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124161 | ERROR | create filesys instance – existid – failure | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124163 | ERROR | create filesys instance – ins_list – failure | 原因: 既存のリソースの確認に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124164 | ERROR | create filesys instance – newtag – failure | 原因: システムはリソースの推奨タグの生成に失敗しました。 処置: 通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124168 | ERROR | create filesys instance - ins_create - failure | 原因: ファイルシステムリソースを作成できませんした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124169 | ERROR | filesys instance - ins_setstate - failure | 原因:新しいファイルシステムリソースの状態を初期化できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124173 | ERROR | create filesys instance - dep_create - failure | 原因: 基本ディスクに対するリソースの依存関係を作成できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124174 | ERROR | machine not specified | 原因: rmenu_mp 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124175 | ERROR | mount point not specified | 原因: rmenu_mp 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124177 | ERROR | unexpected multiple matches found | 原因: 1 つまたは複数のシステムが、複数回使用されたファイルシステムまたはマウントポイントを示しています。 処置: ファイルシステムデバイスとマウントポイントを確認し、ファイルシステムが 1 回だけマウントされていることを確認してください。追加のログメッセージを探して、詳細を確認してください。 |
124178 | ERROR | machine name not specified | 原因: rmenump 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124180 | ERROR | must specify filesystem type | 原因: validfstype 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124181 | ERROR | mount point not specified | 原因: validmp 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124182 | ERROR | The mount point $MP is not an absolute path | 原因: 絶対パスではない(「/」で始まらない)マウントポイントが指定されました。 処置: 「/」で始まる絶対パスでマウントポイントを指定してください。 |
124183 | ERROR | $MP is already mounted on $MACH | 原因: 要求されたマウントポイントはシステムですでに使用中です。 処置: 使用中ではないマウントポイントを指定するか、操作を再試行する前にアンマウントしてください。 |
124184 | ERROR | The mount point $MP is already protected by LifeKeeper on $MACH | 原因: システムは、指定したマウントポイントをすでに保護しています。 処置: まだ保護されていない別のマウントポイントを選択してください。 |
124185 | ERROR | The mount point $MP is not a directory on $MACH | 原因: マウントポイントが通常のファイルなどの非ディレクトリを参照しています。 処置: ディレクトリを参照するマウントポイントを選択してください。 |
124186 | ERROR | The mount point directory $MP is not empty on $MACH | 原因: 指定したマウントポイントは空でないディレクトリを参照します。 処置: 空のマウントポイントを選択するか、指定したディレクトリの内容を削除してから操作を再試行してください。 |
124187 | ERROR | server name not specified | 原因: valuepmp 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124188 | ERROR | There are no mount points on server $MACH | 原因: サーバにファイルシステムリソースのマウントポイントがありません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124194 | WARN | Please correct conflicting "/etc/fstab" entries on server $UNAME for: $FSDEV, $FSNAME | 原因: ファイルシステムリソースを削除したら、/etc/fstab の一部のエントリを手動でクリーンアップする必要があります。 処置: /etc/fstab ファイルを手動でクリーンアップします。 |
124195 | ERROR | getchildinfo found no $OKAPP child for $PTAG | 原因: システムは子リソースを階層で見つけられませんでした。 処置: 隣接するログメッセージで詳細を確認し、階層が正しいことを確認してから、操作を再試行してください。 |
124196 | ERROR | enablequotas - quotacheck may have failed for $FS_NAME | 原因: 割り当て操作に失敗しました。 処置: lifekeeper ログおよび /var/log/messages の隣接するログメッセージで詳細を確認してください。 |
124198 | ERROR | enablequotas - quotaon failed to turn on quotas for $FS_NAME, reason | 原因: 割り当て操作に失敗しました。 処置: lifekeeper ログおよび /var/log/messages の隣接するログメッセージで詳細を確認してください。 |
124200 | ERROR | The device node $dev was not found or did not appear in the udev create time limit of $delay seconds | 原因: デバイスノード(/dev/…)が undev によって作成されませんでした。これは、ストレージまたはストレージへのサーバ接続の問題を示している可能性があります。 処置: lifekeeper ログおよび /var/log/messages の隣接するログメッセージで詳細を確認してください。 |
124201 | WARN | Device $device not found. Will retry wait to see if it appears. | 原因: これは、udev がストレージのデバイスノードエントリを作成している間、通常の条件下で発生する可能性もあります。このメッセージは繰り返し表示されないはずです。 処置: lifekeeper ログおよび /var/log/messages の隣接するログメッセージで詳細を確認してください。 |
124202 | ERROR | Command "$commandwithargs" failed. Retrying …. | 原因: 指定されたコマンドは失敗しましたが、一時的なものである可能性もあります。この障害は、通常の操作で発生しますが、継続はしないはずです。 処置: このメッセージが何度も表示される場合は、隣接するログメッセージで詳細を確認してください。 |
124204 | WARN | cannot make file system $FSNAME mount point | 原因: マウントポイントディレクトリを作成できませんでした。 処置: マウントポイントを作成できることを確認してください。これは、ファイルシステム権限やマウントオプションなどによる可能性があります。 |
124207 | ERROR | "fsck"ing file system $FSNAME failed, trying alternative superblock | 原因: このメッセージは、通常のファイルシステムチェックに失敗したことを示します。このメッセージは、ext2 ファイルシステムまたは代替スーパーブロックロケーションが使用されているファイルシステムの場合は問題ないと思われます。 処置: 隣接するログメッセージで詳細を確認してください。 |
124209 | ERROR | "fsck"ing file system $FSNAME with alternative superblock failed | 原因: これは、代替スーパーブロックロケーションで ext2 ファイルシステム (または代替スーパーブロックロケーションが使用されている他のファイルシステム) の確認が失敗したことを示します。 処置: 隣接するログメッセージで詳細を確認し、実行方法の手順を確かめてください。 |
124210 | WARN | POSSIBLE FILESYSTEM CORRUPTION ON $FSNAME ($FPNAME) | 原因: ミラーソースと同期していないファイルシステムが in service になったか、フェイルオーバされました。 処置: 隣接するログメッセージで詳細を確認し、ファイルシステムを安全に in service にする方法を製品ドキュメントで調べてください。 |
124211 | ERROR | Reason for fsck failure ($retval): $ret | 原因: このログメッセージは一連のメッセージの一部で、fsck プロセスからの実際の終了コードを提供します。 処置: 隣接するログメッセージで詳細を確認し、実行方法の手順を確かめてください。 |
124212 | ERROR | "fsck" of file system $FSNAME failed | 原因: ファイルシステムの確認に失敗しました。これは通常、ファイルシステムが破損したことによるものです。 処置: 隣接するログメッセージで詳細を確認してください。製品ドキュメントを参照し、可能性のあるファイルシステムの破損を処理する方法を調べてください。 |
124213 | WARN | POSSIBLE FILESYSTEM CORRUPTION ON $FSNAME ($FPNAME) | 原因: システムまたはユーザが、破損している可能性のあるファイルシステムを in service にしようとしました。これは、ミラーサイトと同期していないときにファイルシステムが切り替えられたか、フェイルオーバされた場合に起こることがあります。 処置: 隣接するログメッセージで詳細を確認し、リソースを安全に in service にする方法を製品ドキュメントで調べてください。 |
124214 | ERROR | Reason for fsck failure ($retval) | 原因: このメッセージは、ファイルシステムチェックの障害に関する前のログメッセージに続いて表示されるもので、fsck プロセスのプロセス終了コードを提供します。 処置: 隣接するログメッセージで詳細を確認してください。 |
124218 | ERROR | File system $FSNAME was found to be already | 原因: このメッセージは、一連のメッセージの一部です。 処置: 隣接するログメッセージで詳細を確認してください。 |
124219 | ERROR | mounted after initial mount attempt failed. | 原因: このメッセージは、一連のメッセージの一部です。通常の状態では表示されないはずですが、リソースが in service の場合は致命的なエラーの可能性もあります。 処置: lifekeeper ログおよび /var/log/messages の隣接するログメッセージで詳細を確認してください。 |
124220 | ERROR | File system $FSNAME failed to mount. | 原因: ファイルシステムをマウントできませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124221 | WARN | Protected Filesystem $ID is full | 原因: ファイルシステムの空き容量がありません。 処置: 使用していないデータをファイルシステムから削除するか、より大きなファイルシステムに移行してください。 |
124222 | WARN | Dependent Applications may be affected <> | 原因: これは、あるリソースに対する操作が、リソースの階層に基づいて別のリソースにも実行される可能性が高いことを示します。 処置: 示されているリソースが影響を受けても許容できることを確認してから操作を続行してください。 |
124223 | ERROR | Put "$t" Out-Of-Service Failed By Signal | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124227 | ERROR | Put "$i" Out-Of-Service Failed | 原因: 操作に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124230 | ERROR | Put "$t" In-Service Failed By Signal | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124231 | ERROR | Put "$t" In-Service Failed | 原因: 操作に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124234 | ERROR | Put "$t" In-Service Failed | 原因: 操作に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
125000 | FATAL | $dev cannot be protected with LifeKeeper | |
125001 | FATAL | failed to get ID for $dev | |
125003 | FATAL | ins_create failed | |
125004 | FATAL | ins_setstate failed | |
125016 | ERROR | failed to copy $devinfo to $classic (lk_cspec output:$output) | |
125017 | ERROR | Failed to open $classic. (lk_cspec output:$output) Please contact support\@us.sios.com for assistance in upgrading your cluster. | |
125022 | ERROR | $ins: ID update failed. | |
125041 | ERROR | Unable to open device pattern file $devpat | |
125042 | ERROR | Unable to open temporary file $devinfotmp for writing | |
125043 | ERROR | Unable to open SCSI device info file $devinfo | |
125100 | ERROR | Script was terminated for unknown reason | |
125101 | ERROR | Either TEMPLATESYS or TEMPLATETAG argument missing | |
125102 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTagName $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125103 | ERROR | `printf ‘%s is not shareable with any machine.’ $DEV` | 原因: デバイスは他のシステムと共有されていないようです。 処置: デバイスがクラスタ内のすべてのサーバからアクセス可能であることを確認してください。すべての関連ストレージドライバおよびソフトウェアが正常にインストールおよび設定されていることを確認してください。 |
125104 | ERROR | `printf ‘Failed to create disk hierarchy for "%s" on "%s"’ $PRIMACH $DEV` | 原因: 物理ディスクを保護するリソースの作成に失敗しました。 処置: 隣接するログメッセージで詳細を確認し、レポートされている問題を解決してください。 |
125105 | ERROR | Script was terminated for unknown reason | |
125106 | ERROR | Either TEMPLATESYS or TEMPLATETAG argument missing | |
125107 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTagName $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125108 | ERROR | getId failed which is needed for resource \"$TemplateTagName\" | |
125109 | ERROR | `printf ‘Error creating resource on server "%s"’ $TargetSysName` | |
125110 | ERROR | `printf ‘Failed to set resource instance state on "%s".’ $TargetSysName` | |
125112 | ERROR | Script was terminated for unknown reason | |
125113 | ERROR | Either TEMPLATESYS or TEMPLATETAG argument missing | |
125114 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTagName $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125115 | ERROR | `printf ‘Cannot access canextend script "%s" on server "%s"’ "scsi/disk" $TargetSysName` | |
125116 | ERROR | Script was terminated for unknown reason | |
125117 | ERROR | Either TEMPLATESYS or TEMPLATETAG argument missing | |
125118 | ERROR | Script was terminated for unknown reason | |
125119 | ERROR | Either TEMPLATESYS or TEMPLATETAG argument missing | |
125120 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTagName $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125121 | ERROR | `printf ‘Error creating resource on server "%s"’ $TargetSysName` | |
125122 | ERROR | `printf ‘Failed to set resource instance state on "%s".’ $TargetSysName` | |
125123 | ERROR | `printf ‘Cannot access depstoextend script "%s" on server "%s"’ $depstoextend $TargetSysName` | 原因: {server} でスクリプト{DEPSTOEXTEND}を見つけられなかったので、LifeKeeper はリソース階層に対して拡張前のチェックを実行できませんでした。 処置: LifeKeeper の設定を確認してください。 |
125124 | ERROR | `printf ‘Device ID changed from "%s" to "%s". A child resource is expected but one does not exist.’ $TemplateLKId $TargetLKId` | |
125125 | ERROR | `printf ‘Cannot access extend script "%s" on server "%s"’ $childextend $TargetSysName` | |
125126 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $ChildTag $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125127 | ERROR | Script was terminated for unknown reason | |
125128 | ERROR | Either TEMPLATESYS or TEMPLATETAG argument missing | |
125129 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTagName $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125130 | ERROR | `printf ‘Unable to find shared device on "%s" for "%s" on "%s".’ $TargetSysName $TemplateLKId $TemplateSysName` | |
125155 | ERROR | SCSI $DEV failed to lock. | 原因: SCSI デバイスをロックする際に問題が発生しました。 処置: 隣接するログメッセージで詳細を確認し、レポートされている問題を解決してください。 |
125164 | ERROR | SCSI $INFO failed to unlock. | 原因: SCSI デバイスをロック解除する際に問題が発生しました。 処置: 隣接するログメッセージで詳細を確認し、レポートされている問題を解決してください。 |
125174 | ERROR | partition information not defined for $DEV. | |
125175 | ERROR | device node $DEV does not exist | |
125176 | ERROR | create device hierarchy failure | |
125181 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTag $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
126105 | ERROR | script not specified - $PTH is a directory | 原因: 指定したスクリプトパスはディレクトリです。 処置: スクリプトのパスを修正してください。 |
126110 | ERROR | script $PTH does not exist | 原因: 指定したスクリプトパスは存在しません。 処置: スクリプトのパスを修正してください。 |
126115 | ERROR | script $PTH is a zero length file | 原因: 指定したスクリプトは空のファイルです。 処置: スクリプトのファイルパスを修正し、スクリプトの内容を確認してください。 |
126117 | ERROR | script $PTH is not executable | 原因: 指定したスクリプトは実行可能ではありません。 処置: スクリプトのファイルパスを修正し、スクリプトファイルの内容を確認したら、正常な実行権限があることを確認してください。 |
126125 | ERROR | required template machine name is null | 原因: 入力テンプレートマシン名が null です。 処置: 入力テンプレートマシン名を修正してください。 |
126130 | ERROR | required template resource tag name is null | 原因: 入力テンプレートリソース {tag} が null です。 処置: 入力テンプレートリソースタグ名を修正してください。 |
126135 | ERROR | Unable to generate a new tag | 原因:拡張の際に、「newtag」スクリプトを使用してターゲットノードでテンプレートタグ名と同じ新規タグを生成できませんでした。タグ名はすでに存在しています。 処置: 同じノードで重複するタグ名を避け、ログで詳細を確認してください。 |
126140 | ERROR | Unable to generate a new tag | 原因: 拡張の際に、「newtag」スクリプトを使用してターゲットノードで入力ターゲットタグ名として新規タグを生成できませんでした。タグ名はすでに存在しています。 処置: 同じノードで重複するタグ名を避け、ログで詳細を確認してください。 |
126145 | ERROR | Unable to generate a new id | |
126150 | ERROR | unable to remote copy template \"$_lscript\" script file | 原因: テンプレートスクリプトファイルのリモートコピーに失敗しました。原因としては、テンプレートノードにテンプレートスクリプトファイルがない、またはスクリプトファイルを使用できない、あるいは 「lcdrcp」プロセスで何らかのトランザクション障害が発生したことなどが考えられます。 処置: テンプレートスクリプトの有無/使用可能性を確認し、テンプレートノードへの接続を確かめてください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126155 | ERROR | failed to create resource instance on \"$TargetSysName\ | 原因: 「ins_create」によるリソースインスタンスの作成に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126160 | ERROR | failed to set resource instance state for \"$TargetTagName\" on \"$TargetSysName\ | 原因: GenApp リソース拡張の際に、「ins_setstate」によるリソースインスタンスの状態の設定に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126170 | ERROR | getlocks failure | 原因:リソース階層の作成時に管理ロックの取得に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126175 | ERROR | instance create failed | 原因: 「appins」による GenApp インスタンスの作成に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126180 | ERROR | unable to set state to OSU | 原因: GenApp リソース作成の際に、「ins_setstate」によるリソースインスタンスの状態の設定に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126190 | ERROR | resource restore has failed | 原因: GenApp リソースのリストアに失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126200 | ERROR | create application hierarchy rlslocks failure | 原因: GenApp リソースの作成後にロックの解除に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126210 | ERROR | copy $ltype script $lscript failure | 原因: リソース作成時に、ユーザ提供のスクリプトを適切な GenApp ディレクトリにコピーできませんでした。 処置: ユーザ提供のスクリプトの有無/使用可能性に加え、GenApp ディレクトリを確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126215 | ERROR | no $ltype script specified | 原因: GenApp リソース作成時にユーザ定義スクリプトが見つかりません。 処置: 入力アクションスクリプトを確認し、リソース作成を再実行してください。 |
126220 | ERROR | no machine name specified | 原因:GenApp リソース作成時に指定のマシン名が見つかりません。マシン名の入力内容が見つからないため、指定したユーザスクリプトのコピーに失敗しました。 処置: マシン名の入力内容を確認し、リソース作成を再実行してください。 |
126225 | ERROR | no resource tag specified | 原因:リソース作成時に指定のタグ名が見つかりません。 処置: ソースタグ名の入力内容を確認し、リソース作成を再実行してください。 |
126230 | ERROR | $ERRMSG Script was terminated for unknown reason | 原因: 不明な理由で GenApp リソースの拡張に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126235 | ERROR | $ERRMSG Required template machine name is null | 原因: GenApp リソース拡張時にテンプレートマシン名の入力が見つかりません。 処置: テンプレートマシン名の入力内容を確認し、リソース拡張を再実行してください。 |
126240 | ERROR | $ERRMSG Required template resource tag name is null | 原因: GenApp リソース拡張時にテンプレートリソースタグ名の入力が見つかりません。 処置: テンプレートリソースタグ名の入力内容を確認し、リソース拡張を再実行してください。 |
126245 | ERROR | $ERRMSG Can not access extend for $AppType/$ResType resources on machine \"$TargetSysName\ | 原因: ターゲットノードでの GenApp リソース拡張の際に、「extend」スクリプトを見つけられませんでした。 処置: 「extend」スクリプトの有無/使用可能性を確認し、GenApp リソース拡張を再実行してください。 |
126250 | ERROR | create application failure - ins_list failed | 原因: GenApp リソース作成で「ins_list」を呼び出している際に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126255 | ERROR | create application failure - unable to generate a new tag | 原因: GenApp リソース作成で新規タグの生成に失敗しました。 処置: 同じノードで重複するタグ名の使用を避けてください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126260 | ERROR | create application failure - unable to create a new id | |
126270 | ERROR | create application failure - ins_create failed | 原因: 「ins_create」による GenApp インスタンスの作成に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126275 | ERROR | create application failure - copy_actions failed | 原因: 「copy_actions」によるユーザ指定テンプレートスクリプトファイルのコピーに失敗しました。 処置: テンプレートスクリプトの有無/使用可能性を確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126290 | ERROR | Unable to obtain tag for resource with id $ID | 原因:リカバリ時に入力 ID による GenApp リソースタグ名のフェッチに失敗しました。 処置: 入力 ID が正しいこと、および LCD の GenApp リソースの有無/使用可能性を確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126300 | ERROR | generic application recover script for $TAG was not found or was not executable | 原因: リカバリ時に GenApp リソースのユーザ定義スクリプトの特定に失敗しました。 処置: ユーザ定義スクリプトの有無/使用可能性を確認し、GenApp リカバリプロセスを再実行してください。 |
126310 | ERROR | -t flag not specified | 原因: GenApp リソースリストア時にリソースタグ名の入力が見つかりません。 処置: リソースタグ名の入力内容を確認し、リソースリストアを再実行してください。 |
126315 | ERROR | -i flag not specified | 原因: GenApp リソースリストア時にリソース内部 ID の入力が見つかりません。 処置: リソース内部 ID の入力内容を確認し、リソースリストアを再実行してください。 |
126327 | ERROR | END timeout restore of \"$TAG\" (forcibly terminating) | |
126335 | ERROR | restore script \"$LCDAS/$APP_RESTOREDIR/$TAG\" was not found or is not executable | 原因: リストア時に GenApp リソースのユーザ定義スクリプトの特定に失敗しました。 処置: ユーザ定義スクリプトの有無/使用可能性を確認し、GenApp リストアプロセスを再実行してください。 |
126340 | ERROR | -t flag not specified | 原因: GenApp リソース削除時にリソースタグ名の入力が見つかりません。 処置: リソースタグ名の入力内容を確認し、リソース削除を再実行してください。 |
126345 | ERROR | -i flag not specified | 原因: GenApp リソース削除時にリソース内部 ID の入力が見つかりません。 処置: リソース内部 ID の入力内容を確認し、リソース削除を再実行してください。 |
126357 | ERROR | END timeout remove of \"$TAG\" (forcibly terminating) | |
126365 | ERROR | remove script \"$LCDAS/$APP_REMOVEDIR/$TAG\" was not found or was not executable | 原因: 削除時に GenApp リソースのユーザ定義スクリプトの特定に失敗しました。 処置: ユーザ定義スクリプトの有無/使用可能性を確認し、GenApp 削除プロセスを再実行してください。 |
126375 | ERROR | Script has hung checking \"$tag\". Forcibly terminating. | 原因: 待機時間がユーザ定義のタイムアウトを超えたので、タグ名 {tag} の GenApp リソースの「quickCheck」スクリプトが強制的に終了しました。 処置: GenApp リソースのパフォーマンスを確認し、quickChecking を再起動してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126380 | ERROR | Usage error: no tag specified | 原因: GenApp リソース quickCheck 時にリソースタグ名の入力が見つかりません。 処置: リソースタグ名の入力内容を確認し、リソース quickCheck を再試行してください。 |
126385 | ERROR | Internal error: ins_list failed on $tag. | 原因: quickCheck プロセスで、「ins_list」による入力タグ名別の GenApp リソース情報のフェッチに失敗しました。 処置: 入力タグ名を修正し、quickCheck プロセスを再実行してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126390 | FATAL | Failed to fork process to execute $userscript: $! | 原因: GenApp リソースの「quickCheck」プロセスで、ユーザ定義の「quickCheck」スクリプトを実行するためにプロセスを分岐させられませんでした。 処置: ユーザ定義の「quickCheck」スクリプトの有無/使用可能性を確認し、「quickCheck」プロセスを再実行してください。 |
126391 | ERROR | quickCheck has failed for \"$tag\". Starting recovery. | 原因: タグ名 {tag} の GenApp リソースが失敗することが、ユーザ定義の健全性監視スクリプトにより判定されました。「quickCheck」およびリカバリプロセスが開始されます。 処置: ローカルリカバリが完了したら、GenApp リソースのパフォーマンスを確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126392 | WARN | ${convtag}_TIMEOUT: This parameter is old. This parameter will not be supported soon. | |
126400 | ERROR | -t flag not specified | 原因:GenApp リソース削除プロセスでリソースタグ名の入力が見つかりません。 処置: リソースタグ名の入力内容を確認し、リソース削除プロセスを再実行してください。 |
126405 | ERROR | -i flag not specified | 原因: GenApp リソース削除プロセスでリソース内部 ID の入力が見つかりません。 処置: リソース内部 ID の入力内容を確認し、リソース削除プロセスを再実行してください。 |
126478 | ERROR | Failed to create tag \’$new_leaf\’. | 原因: 「creapphier」ユーティリティは、指定されたタグ {new_leaf} を作成できませんでした。 処置: /var/log/lifekeeper.log で「creapphier」からの追加メッセージを確認してください。 |
126479 | ERROR | Failed to extend tag \’$new_leaf\’. | 処置: /var/log/lifekeeper.log で拡張マネージャーからの追加エラーを確認してください。 |
126481 | ERROR | Failed to create dependency on \’$sys\’ for \’$new_leaf\’ to \’$hier{$leaf}{$sys}{‘Tag’}\’. | 処置: /var/log/lifekeeper.log で「dep_create」関数のエラーを確認してください。 |
126484 | ERROR | Tag \’$root_tag\’ is not in-service. | 原因: 指定されたタグ{root_tag} は、クラスター内のどのノードでも In Service になっていません。 処置: 指定されたタグ{root_tag} をクラスター内の任意のノードで In Service にし、「create_terminal_leaf」を再実行してください。 |
126485 | ERROR | Tag \’$root_tag_1\’ was not found, select the root tag for a hierarchy to add a terminal leaf resource. | 原因: 「create_terminal_leaf」に渡された最初のタグ {root_tag_1} が、ユーティリティが実行されたシステムで見つかりませんでした。 処置: リソースがクラスタ内のノードで In-service であり、すべてのノードへリソースが完全に拡張されていることを確認してください。 |
126486 | ERROR | Unable to create leaf tag from \’$tag\’. | 原因: 一意の端末リーフタグを作成できませんでした。100回試行した後、一意の端末リーフタグを作成できませんでした。 処置: 複数のリーフタグと、問題を暗示している可能性のある /var/log/lifekeeper.log のエラーを確認してください。 |
126487 | ERROR | Tag \’$root_tag_2\’ was not found, select the root tag for a hierarchy to add a terminal leaf resource. | 原因: 「create_terminal_leaf」に渡された2番目のタグ {root_tag_2} が、ユーティリティが実行されたシステムで見つかりませんでした。 処置: リソースがクラスタ内のノードで In-service であり、すべてのノードへリソースが完全に拡張されていることを確認してください。 |
126488 | ERROR | Tag \’$root_tag_1’ is not extended to 3 or more systems. | 原因: 指定されたタグ {root_tag_1} は、3つ以上のノードに拡張されていません。 処置: 指定したタグ {root_tag_1} を最低でも3つのノードに拡張し、「create_terminal_leaf」を再度実行してください。 |
128005 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: オペレーティングシステムの信号 {signal} によって、{server} 上の {resource} の quickCheck が失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128008 | ERROR | Usage: quickCheck -t <tag name> -i <id> | 原因: dmmp デバイスの quickCheck コマンドに不正な引数が指定されたため、コマンドが実行できませんでした。 処置: すべてのソフトウェアコンポーネントの正しいバージョンが適切にインストールされていることを確認してください。次の正しい引数を指定してコマンドを再実行してください。-t <Resource Tag> および -i <Resource ID> (quickCheck 対象の dmmp デバイスリソースを特定する ID) |
128010 | ERROR | quickCheck for "%s" failed checks of underlying paths, initiate recovery. retry count=%s. | 原因: dmmp キットが {count} 回の試行後、デバイスの quickCheck に失敗しました。保護されている dmmp リソースのリカバリが実行されます。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128021 | ERROR | unable to find device for uuid "%s". | 原因: restore 操作時に一意の ID を使用してデバイスを見つけられませんでした。 処置: リソースが正しく設定されていることを確認してください。リストア対象の dmmp デバイスリソースを特定する正しいデバイス ID でコマンドを再実行してください。 |
128025 | ERROR | Device "%s" failed to unlock. | 原因: restore 操作時に正常に動作していない {device} が検出され、ロック解除できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128026 | ERROR | Device "%s" failed to lock. | 原因: リストア時に {device} をロックできませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128031 | ERROR | unable to find device for uuid "%s". | 原因: remove 操作時に一意の ID を使用してデバイスを見つけられませんでした。 処置: リソースが正しく設定されていることを確認してください。削除対象の dmmp デバイスリソースを特定する正しいデバイス ID でコマンドを再実行してください。 |
128034 | ERROR | Device "%s" failed to unlock. | 原因: 削除時に {device} をロック解除できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128036 | ERROR | unable to load existing information for device with uuid "%s". | 原因: 一意の ID を使用してデバイス情報を読み込めませんでした。 処置: リソースが正しく設定されていることを確認してください。dmmp デバイスリソースを特定する正しいデバイス ID でコマンドを再実行してください。 |
128037 | ERROR | unable to load existing information for device "%s". | 原因: 名前を使用してデバイス情報を読み込めませんでした。 処置: リソースが正しく設定されていることを確認してください。dmmp デバイスリソースを特定する正しいデバイス名でコマンドを再実行してください。 |
128038 | ERROR | unable to load existing information for device, no dev or uuid defined. | 原因: 一意のデバイス ID もデバイス名も指定されていないため、デバイス情報を読み込めませんでした。 処置: リソースが正しく設定されていることを確認してください。dmmp デバイスリソースを特定する正しいデバイス ID またはデバイス名でコマンドを再実行してください。 |
128041 | ERROR | unable to load existing information for device with uuid "%s". | 原因: 一意の ID を使用してデバイス情報を読み込めませんでした。 処置: リソースが正しく設定されていることを確認してください。dmmp デバイスリソースを特定する正しいデバイス ID でコマンドを再実行してください。 |
128057 | ERROR | All paths are failed on "%s". | 原因: LifeKeeper は、保護対象の dmmp デバイスへのすべてのパスが障害状態にあることを検出しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128058 | ERROR | could not determine registrations for "%s"! All paths failed. | 原因: LifeKeeper は、保護対象の dmmp {device} の登録を特定できませんでした。dmmp {device} へのすべてのパスが障害状態にあります。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128059 | WARN | path "%s" no longer configured for "%s", remove from path list. | 原因:LifeKeeper が検出した保護対象の {device} への {path} は、現在は有効ではなく、パスリストから削除されます。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128060 | WARN | registration failed on path "%s" for "%s". | 原因: LifeKeeper は、保護対象の dmmp {device} の {path} の登録を特定できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128062 | ERROR | all paths failed for "%s". | 原因: LifeKeeper は、保護対象の dmmp {device} の有効なパスを確認できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128072 | ERROR | The daemon "%s" does not appear to be running and could not be restarted. Path failures may not be correctly handled without this daemon. | 原因: LifeKeeper は dmmp デーモンが実行されていることを確認できなかったため、デーモンを再起動できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128078 | ERROR | "%s" resource type is not installed on "%s". | 原因: dmmp デバイスをサポートするための Device Mapper Multipath Recovery Kit がシステムにインストールされていません。 処置: steeleye-lkDMMP Device Mapper Multipath Recovery Kit rpm をシステムにインストールしてください。 |
128083 | ERROR | This script must be executed on "%s". | 原因: dmmp デバイスリソースを作成するための devicehier スクリプトの引数に不正なシステム名が指定されました。 処置: クラスタノードとコミュニケーションパスが適切に設定されていることを確認してください。devicehier スクリプトに正しいシステム名を指定してください。この名前は、コマンドを実行するシステムの名前に一致する必要があります。 |
128084 | ERROR | The device %s is not active. | 原因: リソース作成時に LifeKeeper は、指定された {device} をシステム上の有効なデバイスとして見つけられませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。次の正しい引数を指定してコマンドを再実行してください。-t <Resource Tag> および -i <Resource ID> (作成する dmmp デバイスリソースを特定する ID) |
128086 | ERROR | Failed to create "%s" hierarchy. | 原因: LifeKeeper は、{device} のためのリソース階層を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128088 | ERROR | Error creating resource "%s" on server "%s" | 原因: LifeKeeper は、{server} で {tagname} を使用してリソースを作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128090 | ERROR | Failed to create dependency "%s"-"%s" on system "%s". | 原因: LifeKeeper は、{system} で依存関係 {resource tag name} – {resource tag name} を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128091 | ERROR | Error creating resource "%s" on server "%s" | 原因: LifeKeeper は、{system} で {resource} を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128092 | ERROR | Cannot extend resource "%s" to server "%s" | |
128093 | ERROR | Either TEMPLATESYS or TEMPLATETAG argument missing | |
128094 | ERROR | Template resource "%s" on server "%s" does not exist | |
128095 | ERROR | LifeKeeper internal ID "%s" already in use. | |
128096 | ERROR | Error creating resource "%s" on server "%s" | |
128097 | ERROR | Cannot access depstoextend script "%s" on server "%s" | |
128098 | ERROR | Device ID changed from "%s" to "%s". A child resource is expected but one does not exist. | |
128099 | ERROR | Template resource "%s" on server "%s" does not exist | |
128100 | ERROR | Cannot access extend script "%s" on server "%s" | |
128101 | ERROR | "%s" constructor requires a valid argument. | 原因: LifeKeeper は、dmmp リソースのオブジェクトを作成できませんでした。 処置: 次の正しい引数を指定してコマンドを再実行してください。-t <Resource Tag> および -i <Resource ID> (dmmp デバイスリソースを特定する ID) |
128102 | ERROR | Invalid tag "%s". | 原因: 指定されたタグ名のリソースインスタンスが見つかりませんでした。 処置: リソースが正しく設定されていることを確認してください。次の正しい引数を指定してコマンドを再実行してください。-t <Resource Tag> および -i <Resource ID> (dmmp デバイスリソースを特定する ID) |
128111 | ERROR | Failed to get registrations for "%s": %s. Verify the storage supports persistent reservations. | 原因: LifeKeeper は {device} の登録の取得に失敗し、メッセージ「bad field in Persistent reservation in cdb」を出力しました。 処置: このストレージでパーシステントリザベーションがサポートされているか確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128112 | ERROR | Failed to get registrations for "%s": %s. Verify the storage supports persistent reservations. | 原因: LifeKeeper は {device} の登録の取得に失敗し、メッセージ「illegal request」を出力しました。 処置: このストレージでパーシステントリザベーションがサポートされているか確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128136 | ERROR | A previous quickCheck with PID "%s" running for device "%s" has been terminated. | 原因: LifeKeeper は、dmmp リソースの restore 操作時に前の quickCheck がまだ実行中であることを検出しました。LifeKeeper は quickCheck を終了しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128137 | ERROR | SCSI reservation conflict on %s during LifeKeeper resource initialization. Manual intervention required. | 原因: LifeKeeper は、dmmp リソースの restore 操作時に {device} で SCSI リザベーションコンフリクトを検出しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。手動による介入および {device} でのリザベーションコンフリクトの解消が必要です。 |
128138 | ERROR | unable to clear registrations on %s. | 原因: LifeKeeper は、{device} 上のすべての登録を消去できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128140 | WARN | registration failed on path %s for %s. | 原因: LifeKeeper は、{device} の {path} の登録を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128143 | ERROR | reserve failed (%d) on %s. | 原因: LifeKeeper は、{device} 上の {resource} の登録を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128145 | ERROR | The server ID "%s" returned by "%s" is not valid. | 原因: LifeKeeperは有効なホスト {ID} を生成できませんでした。 処置: デバイスを登録するための ID は、クラスタ内のサーバを一意に特定する 1 ~ 12 桁の 16 進数で構成されます。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128146 | ERROR | device failure on %s. SYSTEM HALTED. | 原因:LifeKeeper は {device} で障害を検出しました。サーバを再起動します。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128148 | ERROR | device failure on %s. SYSTEM HALTED DISABLED. | 原因: LifeKeeper は {device} で障害を検出しました。LifeKeeper の設定によって、再起動はスキップされました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。「SCSIHALT」設定を有効にして、いかなるデバイス障害が検出されたときも再起動が行われるようにしてください。 |
128149 | ERROR | device failure or SCSI Error on %s. SENDEVENT DISABLED. | 原因: LifeKeeper は {device} で障害を検出しました。LifeKeeper の設定によって、イベント生成はスキップされました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。「SCSIEVENT」設定を有効にして、いかなるデバイス障害が検出されたときも sendevent を使用できるようにしてください。 |
128150 | ERROR | %s does not have EXCLUSIVE access to %s, halt system. | 原因: LifeKeeper は {server} の {device} でリザベーションコンフリクトを検出しました。サーバを再起動します。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128151 | ERROR | %s does not have EXCLUSIVE access to %s, halt system DISABLED. | 原因: LifeKeeper は {server} の {device} でリザベーションコンフリクトを検出しました。LifeKeeper の設定によって、再起動はスキップされました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。「RESERVATIONCONFLICT」設定を有効にして、いかなるリザベーションコンフリクトが検出されたときも再起動が行われるようにしてください。 |
128154 | WARN | unable to flush buffers on %s. | 原因: LifeKeeper は、dmmp リソースの削除時に {device} のバッファを消去できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128157 | WARN | %s utility not found, limited healthcheck for %s. | 原因: LifeKeeper は、{device} の健全性チェックを行う「dd」ユーティリティを見つけられませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128160 | ERROR | %s failed to read %s. | 原因: LifeKeeper は、{utility} の使用中に {device} のディスク I/O テストに失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128163 | ERROR | Registration ID "%s" for "%s" is not valid. | 原因: LifeKeeper は {device} の有効な登録 {ID} の生成に失敗しました。 処置: デバイスを登録するための ID は、デバイスへのパスに由来する 4 桁の 16 進数で構成されます。隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから操作を再試行する必要があります。 |
128169 | ERROR | Cannot extend resource "%s" to server "%s" | |
128170 | ERROR | Usage: canextend <Template system name> <Template tag name> | |
128171 | ERROR | Template resource "%s" on server "%s" does not exist | |
128500 | ERROR | Usage error | 原因: dmmp デバイスの restore コマンドに不正な引数が指定されたため、コマンドが実行できませんでした。 処置: 次の正しい引数を指定してコマンドを再実行してください。-t <Resource Tag> および -i <Resource ID> (リストアする dmmp デバイスリソースを特定する ID) |
128504 | ERROR | "%s" resource type is not installed on "%s". | 原因: dmmp デバイスをサポートするための Device Mapper Multipath Recovery Kit がシステムにインストールされていません。 処置: steeleye-lkDMMP Device Mapper Multipath Recovery Kit rpm をシステムにインストールしてください。 |
128505 | ERROR | Cannot extend resource "%s" to server "%s" | |
128506 | ERROR | Usage error | 原因: dmmp デバイスの devShared コマンドに不正な引数が指定されたため、コマンドが実行できませんでした。 処置: 次の正しい引数を指定してコマンドを再実行してください。<Template Resource System Name> および <Template Resource Tag> (作成する dmmp デバイスリソースを特定するタグ) |
128507 | FATAL | This script must be executed on "%s". | 原因: dmmp デバイスリソースを作成するための devicehier スクリプトの引数に不正なシステム名が指定されました。 処置: devicehier スクリプトに正しいシステム名を指定してください。この名前は、コマンドを実行するシステムの名前に一致する必要があります。 |
128511 | ERROR | Failed to get the ID for the device "%s". Hierarchy create failed. | 原因: dmmp デバイスリソースを作成するための devicehier スクリプトは、指定されたデバイスの SCSI ID を特定できませんでした。 処置: 指定されたデバイスパスが存在すること、およびそのパスがサポート対象の SCSI ストレージアレイのパスであることを確認してください。 |
128512 | ERROR | Failed to get the disk ID for the device "%s". Hierarchy create failed. | 原因: dmmp ディスクリソースを作成するための devicehier スクリプトは、指定されたディスクの SCSI ID を特定できませんでした。 処置: 指定されたデバイスパスが存在すること、およびそのパスがサポート対象の SCSI ストレージアレイのパスであることを確認してください。 |
128513 | ERROR | Failed to create the underlying resource for device "%s". Hierarchy create failed. | 原因: ベースとなる dmmp ディスクリソースの作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128514 | ERROR | BEGIN create of "$tag" | |
128515 | ERROR | Error creating resource "%s" on server "%s" | 原因: dmmp デバイスリソースの作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128516 | ERROR | Creating dependency "%s"-"%s" on machine "%s". | |
128517 | ERROR | Failed to create dependency "%s"-"%s" on system "%s". | 原因: dmmp デバイスリソースと dmmp ディスクリソースとの間の親 / 子の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128519 | ERROR | Error creating resource "%s" on server "%s" | 原因: 新しく作成した dmmp デバイスリソースを in service にする操作が失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128520 | ERROR | Cannot extend resource "%s" to server "%s" | |
128521 | ERROR | Either TEMPLATESYS or TEMPLATETAG argument missing | 原因: dmmp デバイスリソースの extend コマンドに不正な引数が指定されました。 処置:テンプレートシステムおよびタグの正しい名前を指定して dmmp デバイスリソースの extend を再実行してください。 |
128523 | ERROR | Template resource "%s" on server "%s" does not exist | |
128524 | ERROR | LifeKeeper internal ID "%s" already in use. | |
128525 | ERROR | Error creating resource "%s" on server "%s" | |
128526 | ERROR | Cannot access depstoextend script "%s" on server "%s" | |
128527 | ERROR | Template resource "%s" on server "%s" does not exist | |
128528 | ERROR | Cannot access extend script "%s" on server "%s" | |
128530 | ERROR | Cannot extend resource "%s" to server "%s" | |
128531 | ERROR | Usage error | |
128532 | ERROR | Template resource "%s" on server "%s" does not exist | |
128533 | ERROR | Cannot access depstoextend script "%s" on server "%s" | |
128534 | ERROR | Template resource "%s" on server "%s" does not exist | |
128535 | ERROR | Cannot access canextend script "%s" on server "%s" | |
128540 | ERROR | Usage error | 原因: dmmp デバイスの SCSI ID を取得する getId コマンドに不正な引数が指定されました。 処置: 次の正しい引数を指定してコマンドを再実行してください。-i <device path> または -b <device ID>。 |
128541 | ERROR | Usage error | 原因: dmmp デバイスリソースを削除するコマンドに不正な引数が指定されました。 処置: 次の正しい引数を指定してコマンドを再実行してください。-t <dmmp device resource tag>。 |
128543 | ERROR | device node "$dev" does not exist. | 原因: dmmp デバイスリソースをリストアするために必要なデバイスノードが存在しません。リストア時に udev デバイスの作成に割り当てられている待機時間を越えました。 処置: udev がデバイスを作成した後に dmmp デバイスリソースの restore を再実行してください。 |
128544 | ERROR | Usage error | 原因: dmmp デバイスリソースを out of service にする remove コマンドに不正な引数が指定されました。 処置: 次の正しい引数を指定してコマンドを再実行してください。-t <dmmp device resource tag>。 |
129100 | FATAL | Failed to load instance from LifeKeeper. | 原因: 無効なリソースタグまたは ID が指定されました。 処置: タグまたは ID が有効であることを確認し、コマンドを再実行してください。 |
129103 | FATAL | No resource matches tag "$self->{'tag'}". | 原因: 無効なリソースタグが指定されました。 処置: タグが有効であることを確認し、コマンドを再実行してください。 |
129104 | FATAL | An error occurred setting LifeKeeper resource information | 原因: LifeKeeper で内部エラーが発生しました。 |
129110 | ERROR | Could not get the Elastic Network Interface ID for $dev | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129111 | ERROR | Failed to get Allocation ID of Elastic IP "$elasticIp". | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129113 | ERROR | Failed to get my instance ID. | 原因: EC2 インスタンスのメタデータのアクセスに失敗しました。 処置: Amazon コンソールを確認し、操作を再試行してください。 |
129114 | ERROR | Failed to get ENI ID. | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129116 | ERROR | Failed to associate Elastic IP "$self->{'EIP'}" on "$self->{'DEV'}". | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129118 | WARN | $self->{'EIP'} is not associated with any instance. | 原因: Elastic IP がインスタンスに関連付けられていません。 処置: LifeKeeper は Elastic IP を関連付ける EC2 API を呼び出して、問題の修正を試行します。隣接するログメッセージで詳細を確認してください。 |
129119 | WARN | $self->{'EIP'} is associated with another instance. | 原因: Elastic IP が別のインスタンスに関連付けられています。 処置: LifeKeeper は Elastic IP を関連付ける EC2 API を呼び出して、問題の修正を試行します。隣接するログメッセージで詳細を確認してください。 |
129120 | ERROR | Failed to recover Elastic IP. | 原因: EC2 API が Elastic IP の関連付けに失敗しました。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129121 | ERROR | Recovery process ended but Elastic IP is not associated with this instance. Please check AWS console. | 原因: EC2 API が Elastic IP の関連付けに失敗しました。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129122 | ERROR | Error creating resource \"$target_tag\" with return code of \"$err\". | 原因: LifeKeeper がサーバ上にリソースインスタンスを作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129123 | ERROR | Failed to get ENI ID. | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129124 | WARN | $self->{'EIP'} is associated with another network interface. | 原因: Elastic IP は正しいインスタンスに関連付けられていますが、ENI が正しくありません。 処置: LifeKeeper は Elastic IP を関連付ける EC2 API を呼び出して、問題の修正を試行します。隣接するログメッセージで詳細を確認してください。 |
129125 | ERROR | Link check failed for interface '$dev'. | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、リンクが存在しないことを示します。 処置: ネットワークインターフェースを確認し、リンクをアップ状態にしてください。 |
129126 | ERROR | Link check failed for interface '$dev'. Reason: down slave. | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、リンクが存在しないことを示します。 処置: ネットワークインターフェースを確認し、リンクをアップ状態にしてください。 |
129129 | WARN | The link for network interface '$self->{'DEV'}' is down. Attempting to bring the link up. | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、リンクが存在しないことを示します。 処置: LifeKeeper は、リンクをアップ状態にして Elastic IP とインターフェースを関連付けることにより、問題の修正を試行します。隣接するログメッセージで詳細を確認してください。 |
129130 | ERROR | Failed to modify "$opt_t" to end pint URL "$endpoint". | |
129137 | ERROR | The link for network interface '$self->{'DEV'}' is still down. | 原因: LifeKeeper がリンクをアップ状態にできませんでした。 処置: インターフェースが有効であり、アップ状態であることを確認してください。隣接するログメッセージで詳細を確認してください。 |
129139 | WARN | The link for network interface '$self->{'DEV'}' is down. | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、リンクが存在しないことを示します。 処置: ネットワークインターフェースを確認し、リンクをアップ状態にしてください。 |
129140 | ERROR | Could not get ENI ID for $self->{IP}. | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129142 | ERROR | Failed to update route table | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129143 | ERROR | You must have exactly one IP address resource as the parent of the RouteTable EC2 resource. Please reconfigure your resource hierarchy. | 原因: ルートテーブルの EC2 リソースは親として IP リソースを 1 つのみ持つ必要があります。 処置: 必要に応じてリソース階層を修復してください。 |
129144 | ERROR | $func called with invalid timeout: $timeout | 原因: /etc/default/LifeKeeper ファイルに無効なタイムアウト値が指定されました。 処置: /etc/default/LifeKeeper 内にあるすべての EC2_*_TIMEOUT 設定が正しいことを確認してください。 |
129145 | ERROR | $func action timed out after $timeout seconds | 原因: タイムアウト期間中に動作が完了しませんでした。 処置: その動作の EC2_*_TIMEOUT 値 (/etc/default/LifeKeeper 内) を増加することを検討してください。 |
129146 | ERROR | failed to run $func with timeout: $@ | 原因: これは内部エラーです。 |
129148 | ERROR | Amazon describe-route-tables call failed (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129150 | ERROR | Elastic IP \"$elasticIp\" is associated with another instance. | 原因: Elastic IP が正しいインスタンスに関連付けられていません。 処置: LifeKeeper は Elastic IP を関連付ける EC2 API を呼び出して、問題の修正を試行します。隣接するログメッセージで詳細を確認してください。 |
129151 | ERROR | Could not get the Association ID for Elastic IP "$elasticIp". | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129152 | ERROR | Failed to disassociate Elastic IP "$self->{'EIP'}" on "$self->{'DEV'}". | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129153 | ERROR | Failed to disassociate Elastic IP "$elasticIp", (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129154 | ERROR | Amazon describe-addresses call failed (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129155 | ERROR | Amazon describe-address call failed (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129157 | ERROR | curl call failed (err=%s)(output=%s) | 原因: EC2 インスタンスのメタデータのアクセスに失敗しました。 処置: Amazon コンソールを確認し、操作を再試行してください。 |
129159 | ERROR | Amazon associate-address call failed (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129160 | ERROR | Amazon describe-addresses call failed (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129161 | ERROR | Error deleting resource "$otherTag" on "$otherSys" with return code of "$err". | 原因: LifeKeeper がサーバ上のリソースインスタンスを削除できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129162 | ERROR | Could not getRouteTablesByIP | |
129163 | ERROR | Could not getRouteTablesByIP | |
129164 | ERROR | [$SUBJECT event] mail returned $err | |
129165 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
129167 | ERROR | snmptrap returned $err for Trap 180 | |
129168 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
129170 | ERROR | This resource is in the old format. Please update. | |
129403 | ERROR | END failed create of $TAG due to a $sig signal | 原因: 作成プロセスがシグナルによって中断されました。 |
129409 | ERROR | The IP resource $IP_RES is not \"ISP\". | 原因: IP リソースが in service ではありません。 処置: リソースを in service にして、操作をもう一度行ってください。 |
129410 | ERROR | Could not find IP resource $IP_RES | 原因: IP リソースが存在していることを確認し、操作を再試行してください。 |
129412 | ERROR | EC2 resource $ID is already protected | 原因: 指定した ID を持つリソースはすでに存在しています。 処置: 残っている古いリソースをすべてクリーンアップしてから、新しいリソースを再作成してください。 |
129416 | ERROR | Error creating resource "$TAG" with return code of "$lcderror". | 原因: LifeKeeper がリソースインスタンスを作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129418 | ERROR | Dependency creation between "$IP_RES" and "$TAG" failed with return code of "$lcderror". | 原因: LifeKeeper がリソースの依存関係を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129420 | ERROR | In-service failed for tag "$TAG". | 原因: LifeKeeper がリソースインスタンスを in service にできませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129423 | ERROR | Could not get ENI ID for $dev. | |
129425 | ERROR | Failed to update route table | |
129426 | ERROR | In-service (dummy) failed for tag "$TAG". | |
129800 | ERROR | canextend checks failed for \"$self->{‘tag’}\" (err=$ret) | 原因: ターゲットサーバで拡張前のチェックに失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129801 | ERROR | canextend checks failed for "$self->{'tag'}". EC2_HOME "$self->{EC2_HOME}" does not exist on $me. | |
129802 | ERROR | canextend checks failed for "$self->{'tag'}" (err=$ret) | |
133106 | ERROR | You must have exactly one IP address resource as the child of the route53 resource. Please reconfigure your resource hierarchy. | |
133111 | ERROR | Failed to init the object. | |
133114 | ERROR | Failed start Route53 resource $self->{Tag} | |
133115 | ERROR | Failed start Route53 resource $self->{Tag} | |
133116 | WARN | Could not Get A Record Value Address : $aAWSresult | |
133117 | WARN | aws call failed : $aAWSresult | |
133118 | WARN | aws call failed : $upsertResp | |
133119 | ERROR | Could not Update and Create A Record Set : $upsertResp | |
133120 | WARN | Could not get Route53 API batch request ID form UPSERT response XML data : $upsertResp | |
133121 | WARN | Could not Get A Record Value Address : $aAWSresult | |
133122 | WARN | aws call failed : $statusResult | |
133123 | ERROR | Faild check change batch request status : $statusResult | |
133126 | WARN | Failed to Route53 API response : $rc | |
133128 | WARN | Failed to Route53 API response | |
133129 | ERROR | Route53 resource $self->{Tag} is stopped | |
133130 | ERROR | $self->{Tag} is in the old format. Please update. | |
133601 | ERROR | $usage | |
133602 | ERROR | Template resource "$template_tag" on server \"$template_sys" does not exist | |
133608 | ERROR | Template resource "$template_tag" on server "$template_sys" does not exist | |
133614 | ERROR | Error creating resource "$Tag" on server "$me" | |
133617 | ERROR | END failed hierarchy extend of resource $Tag with return value of $ecode. | |
133619 | ERROR | $usage | |
133620 | ERROR | END failed extend of "$Tag" due to a "$sig" signal | |
133700 | ERROR | $usage | |
133701 | ERROR | END failed create of "$Route53Tag" due to a "$sig" signal | |
133703 | ERROR | Unable to getlocks on $me during resource create. | |
133704 | ERROR | The route53 on $Route53HostName is already protected by LifeKeeper. | |
133706 | ERROR | Error creating resource $Route53Tag. Error ($rc) | |
133708 | ERROR | Dependency create failed between $Route53Tag and $Route53IPResTag. Error ($rc). | |
133710 | ERROR | In-service attempted failed for tag $Route53Tag. | |
133813 | ERROR | Usage: $usage | |
133815 | ERROR | The host name "$hostname" is too long. | |
133816 | ERROR | The host name "$hostname" is too short. | |
133817 | ERROR | The host name "$hostname" contains invalid character. | |
133818 | ERROR | The first character must be an alpha character. | |
133819 | ERROR | The last character must not be a minus sign or period. | |
133826 | ERROR | Host Name cannot be blank. | |
134003 | ERROR | catch a \"$sig\" signal | 原因: create処理がシグナルによって中断されました。 処置: 前後のログメッセージを確認してください。 |
134004 | ERROR | Unable to getlocks on $server during resource create. Error ($rc) | 原因: リソース階層の作成時に管理ロックの取得に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134005 | ERROR | The service \"$serviceName\" is not supported on $server. Error ($rc) | 原因: サービスが存在しないか保護できないサービスです。 処置: 適切なサービス名を入力してください。 |
134006 | ERROR | The service \"$serviceName\" is already protected on $server. | 原因: すでに保護されているサービスです。 処置: このサービスを保護するためのリソースを作成することはできません。 |
134007 | ERROR | Error creating resource $tag. Error ($rc) | 原因: QSPリソースの作成に失敗しました。 処置: 前後のログメッセージを確認して、エラーの原因を取り除いてください。 |
134011 | ERROR | In-service attempted failed for tag $tag. | 原因: QSPリソースの起動に失敗しました。 処置: 保護したいサービスに関連したログを確認して、問題を解決してください。 |
134015 | ERROR | Unable to rlslocks on $server during resource create. Error ($rc) | 原因: QSPリソースの作成後にロックの解除に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134103 | ERROR | Template resource \"$template_tag\" on server \"$template_sys\" does not exist | 原因: テンプレートシステムでリソースを見つけられません。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
134104 | ERROR | Template resource \”$template_tag\” on server \”$template_sys\” is not QSP resource (app=$ins[1], res=$ins[2]) | 原因: テンプレートリソースはQSPリソースではありません。 処置: テンプレートリソースと同じタイプに拡張してください。 |
134105 | ERROR | The service \"$service\" is not supported on $me. Error ($check) | 原因: 拡張先のサーバにサービスが存在しません。 処置: 拡張先サーバにサービスをインストールしてから拡張してください。 |
134106 | ERROR | The service \"$service\" is already protected on $me. | 原因: 拡張先サーバに同じIDのリソースが既にあります。 処置: 同じサービスのリソースを作成することはできません。 |
134203 | ERROR | catch a \"$sig\" signal | 原因: リソース拡張処理がシグナルによって中断されました。 処置: 前後のログメッセージを確認してください。 |
134204 | ERROR | Template resource \"$template_tag\" on server \"$template_sys\" does not exist | 原因: テンプレートシステムでリソースを見つけられません。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
134208 | ERROR | Error creating resource \"$tag\" on server \"$me\" | 原因: LifeKeeperはターゲットサーバーにリソースインスタンスを作成できませんでした。 処置: 前後のログメッセージを確認して、エラーの原因を取り除いてください。 |
134401 | ERROR | timeout $cmd for \"$tag\". Forcibly terminating. | 原因: サービスの起動処理が規定時間を超えても終了しません。 処置: 保護しているサービスについて確認し、restore操作を再試行してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134405 | FATAL | Failed to fork process to execute service command: $! | 原因: forkが失敗しました。これはシステムエラーです。 処置: forkが失敗する理由を特定してください。 |
134407 | ERROR | service command has failed for \"$tag\" | 原因: serviceコマンドの実行に失敗しました。 処置: startオプションでserviceコマンドを手動実行するとエラーになります。エラーメッセージを参考にしてエラーの原因を取り除いてください。 |
134501 | ERROR | timeout $cmd for \"$tag\". Forcibly terminating. | 原因: サービスの停止処理が規定時間を超えても終了しません。 処置: 保護しているサービスについて確認し、remove操作を再試行してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134505 | FATAL | Failed to fork process to execute service command: $! | 原因: forkが失敗しました。これはシステムエラーです。 処置: forkが失敗する理由を特定してください。 |
134507 | ERROR | service command has failed for \"$tag\" | 原因: serviceコマンドの実行に失敗しました。 処置: stopオプションでserviceコマンドを手動実行するとエラーになります。エラーメッセージを参考にしてエラーの原因を取り除いてください。 |
134601 | ERROR | timeout $cmd for \"$tag\". Forcibly terminating. | 原因: サービスの監視処理が規定時間を超えても終了しません。 処置: 保護しているサービスについて確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134605 | FATAL | Failed to fork process to execute service command: $! | 原因: forkが失敗しました。これはシステムエラーです。 処置: forkが失敗する理由を特定してください。 |
134607 | ERROR | service command has failed for \"$tag\" | 原因: serviceコマンドの実行に失敗しました。 処置: statusオプションでserviceコマンドを手動実行するとエラーになります。エラーメッセージを参考にしてエラーの原因を取り除いてください。 |
134701 | ERROR | timeout $cmd for \"$tag\". Forcibly terminating. | 原因: サービスの回復処理が規定時間を超えても終了しません。 処置: 保護しているサービスについて確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134706 | FATAL | Failed to fork process to execute service command: $! | 原因: forkが失敗しました。これはシステムエラーです。 処置: forkが失敗する理由を特定してください。 |
134708 | ERROR | service command has failed for \"$tag\" | 原因: serviceコマンドの実行に失敗しました。 処置: startオプションでserviceコマンドを手動実行するとエラーになります。エラーメッセージを参考にしてエラーの原因を取り除いてください。 |
134803 | ERROR | tag \"$tag\" does not exist on server \"$me\" | 原因: 指定されたタグが存在しません。これは内部エラーです。 |
134804 | ERROR | app type \”$ins[1]\” is not $app | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
134805 | ERROR | res type \”$ins[2]\” is not $res | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
134823 | ERROR | tag \"$tag\" does not exist on server \"$me\" | 原因: 指定されたタグが存在しません。これは内部エラーです。 |
134824 | ERROR | app type \”$ins[1]\” is not $app | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
134825 | ERROR | res type \”$ins[2]\” is not $res | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
134843 | ERROR | tag \"$tag\" does not exist | 原因: 指定されたタグが存在しません。これは内部エラーです。 |
134844 | ERROR | app type \”$ins[1]\” is not $app | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
134845 | ERROR | res type \”$ins[2]\” is not $res | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
135802 | ERROR | object[%d] not iterated for %lld ms. | |
135806 | ERROR | qwk_config() failed. | |
135807 | ERROR | thread_initialize() failed. | |
135808 | ERROR | state_monitor_initialize() failed. | |
135809 | ERROR | state_monitor() failed. | |
135810 | ERROR | start_server() failed. | |
135812 | ERROR | ‘fopen’ for %s failed: %m | |
135813 | ERROR | ‘qwk_object_path=’ line cannot be found for %s. | |
135814 | ERROR | ‘%s’ is unknown config. | |
135815 | ERROR | configuration of hbeattime ‘%d’ is incorrect. | |
135816 | ERROR | configuration of numhbeats ‘%d’ is incorrect. | |
135817 | ERROR | configuration of timeout_multiplier ‘%d’ is incorrect. | |
135818 | ERROR | configuration of lcmhbeattime ‘%d’ is incorrect. | |
135819 | ERROR | configuration of lcmnumhbeats ‘%d’ is incorrect. | |
135820 | ERROR | configuration of qwk_object_type is incorrect. | |
135821 | ERROR | configuration of my_node is incorrect. | |
135822 | ERROR | configuration of number_of_node ‘%d’ is incorrect. | |
135823 | ERROR | configuration of number_of_object ‘%d’ is incorrect. | |
135824 | ERROR | configuration of object node is incorrect. | |
135825 | ERROR | configuration of object path is incorrect. | |
135826 | ERROR | my_node is not include in qwk_objects. | |
135827 | ERROR | ‘open’ for %s failed: %m | |
135828 | ERROR | ‘read’ for %s failed: %m | |
135829 | ERROR | ‘popen’ for %s failed: %m | |
135830 | ERROR | ‘open’ for %s failed: %m | |
135831 | ERROR | ‘write’ for %s failed: %m | |
135832 | ERROR | ‘popen’ for %s failed: %m | |
135833 | ERROR | (bug) buffer overflow | |
135834 | ERROR | (bug) data is corrupted | |
135835 | ERROR | ‘signature=’ line cannot be found. | |
135836 | ERROR | signature ‘%s’ does not match. | |
135837 | ERROR | ‘local_node=’ line cannot be found. | |
135838 | ERROR | local_node ‘%s’ does not match. | |
135839 | ERROR | ‘time=’ line cannot be found. | |
135840 | ERROR | ‘sequence=’ line cannot be found. | |
135841 | ERROR | sequence ‘%s’ scan failed. | |
135842 | WARN | ‘node=’ line cannot be found. index=%d | |
135843 | ERROR | ‘commstat=’ line cannot be found. index=%d | |
135844 | ERROR | ‘checksum=’ line cannot be found. | |
135845 | ERROR | checksum ‘%s’ scan failed. | |
135846 | ERROR | checksum does not match. | |
135849 | ERROR | qwk object was not found. | |
135851 | ERROR | failed to read qwk object. | |
135852 | ERROR | failed to decode node_info. | |
135854 | WARN | sequence backed down from %llu to %llu. | |
135855 | ERROR | ‘malloc’ for %zu failed: %m | |
135856 | ERROR | thread_create() failed. index=%d | |
135870 | ERROR | (bug) data is corrupted | |
135871 | ERROR | format error in request. | |
135872 | ERROR | format error in quorum_verify request. lkevent cannot be found. | |
135873 | ERROR | format error in witness_verify request. lkevent cannot be found. | |
135874 | ERROR | format error in witness_verify request. target_node cannot be found. | |
135875 | ERROR | ‘%s’ is unknown command. | |
135877 | ERROR | qwk_receive() did not receive full header. Close socket. | |
135878 | ERROR | Request is too long. Close socket. | |
135879 | ERROR | qwk_receive() did not receive full request. Close socket. | |
135880 | ERROR | do_request() failed. | |
135881 | ERROR | qwk_send() did not send full header. Close socket. | |
135882 | ERROR | qwk_send() did not send full response. Close socket. | |
135884 | ERROR | qwk_accept() failed. | |
135885 | ERROR | thread_create() failed. | |
135886 | ERROR | cannot create socket. | |
135887 | ERROR | ‘bind’ failed: %m | |
135888 | ERROR | ‘listen’ failed: %m | |
135889 | ERROR | create_sockets() failed. | |
135890 | ERROR | thread_create() failed. | |
135891 | ERROR | ‘pthread_attr_init’ failed: %m | |
135892 | ERROR | ‘pthread_attr_setstacksize’ failed: %m | |
135893 | ERROR | ‘pthread_create’ failed: %m | |
135894 | ERROR | requst is too long. header.size=%zu | |
135895 | ERROR | qwk_send() failed for header. | |
135896 | ERROR | qwk_send() failed for request. | |
135897 | ERROR | qwk_send() failed for termination. | |
135898 | ERROR | qwk_receive() did not receive full header. | |
135899 | ERROR | Response buffer is not enough large. Server sent %zu bytes. | |
135900 | ERROR | qwk_receive() did not receive full response. | |
135901 | ERROR | ‘%s’ is unknown command. | |
135903 | ERROR | Cannot create socket. | |
135904 | ERROR | ‘connect’ failed: %m | |
135905 | ERROR | request_send() failed. | |
135906 | ERROR | request_receive() failed. | |
135907 | ERROR | ‘%s’ is unknown lkevent. | |
135908 | ERROR | ‘%s’ is unknown qwktype. | |
135909 | ERROR | ‘%s’ is unknown node state. | |
135910 | ERROR | ‘%s’ is unknown quorum state. | |
135911 | ERROR | ‘accept’ failed: %m | |
135912 | ERROR | You must install the LifeKeeper license key for Storage Quorum Witness Kit. | |
135999 | ERROR | COMMAND OUTPUT: $LKROOT/lkadm/bin/qwk_storage_server $LKROOT/config/qwk-storage.cfg | |
136002 | ERROR | Usage: $usage | 原因: SAP HANA createスクリプトに無効な引数が指定された。 処置: 次の形式で適切な引数を指定してください: |
136003 | ERROR | END failed create of resource $tag on server $me with return value of $errcode. | 原因: SAP HANAリソースの作成中に障害が発生した。 処置: SAP HANAシステムレプリケーションがプライマリとセカンダリの両方のレプリケーションサイトで完全に構成および有効化されていることを確認し、リソース作成操作を再試行してください。 |
136005 | ERROR | An unknown error has occurred in utility rlslocks on server $me. View the LifeKeeper logs for details and retry the operation. | 原因: SAP HANAリソースの作成中にLifeKeeper rlslocksユーティリティで問題が発生する。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース作成操作を再試行してください。 |
136006 | ERROR | END failed create of resource $tag on server $me with signal $sig. | 原因: SAP HANAリソース作成中のシグナルによる割込み。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136008 | ERROR | An unknown error has occurred in utility getlocks on server $me. View the LifeKeeper logs for details and retry the operation. | 原因: SAP HANAリソースの作成中にLifeKeeper getlocksユーティリティで問題が発生する。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース作成操作を再試行してください。 |
136009 | ERROR | The SAP HANA product was not found in the directory $obj->{‘UTIL_PATH’} on server $me. | 原因: リソースの作成中に、必須のSAP HANAバイナリが見つからなかった。 処置: クラスター内のすべてのサーバーでSAP HANAが正しくインストールされ、構成されていることを確認してください。 |
136010 | ERROR | Failed to create resource as id $id already exists on system $me. | 原因: 指定されたIDのLifeKeeperリソースがすでにシステムに存在する。 処置: SAP HANAデータベースがLifeKeeperによってすでに保護されているかどうかを確認してください。 |
136011 | ERROR | Failed to create new tag $tag for SAP HANA resource on $me. | 原因: 入力されたSAP HANAリソースタグは別のLifeKeeperリソースによってすでに使用されており、LifeKeeper newtagユーティリティは新しいタグを作成できなかった。 処置: SAP HANAリソースに対し、別のタグ名を選択してください。 |
136012 | ERROR | Failed creation of resource with $tag on system $me. | 原因: LifeKeeperで指定したSAP HANAリソースを作成できなかった。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース作成操作を再試行してください。 |
136014 | ERROR | Failed to create resource dependency for parent $tag and child $virtual_ip_tag. | 原因: SAP HANAリソースとそれが依存する仮想IPリソース間の依存関係の作成に失敗した。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース作成操作を再試行してください。 |
136015 | ERROR | The info field for resource $tag could not be successfully generated using values [SID: $info_sid, Instance: $info_instance, Replication Mode: $info_repl_mode, Site Name: $info_site_name, Operation Mode: $info_oper_mode]. Please verify that SAP HANA System Replication is fully configured and enabled on both the primary and secondary systems before creating the SAP HANA resource. | 原因: SAP HANAの「リソース情報」フィールドの作成時に無効な値が見つかった。 処置: SAP HANAが正しくインストールおよび構成されていること、SAP HANAシステムレプリケーションがクラスター内のすべてのサーバーで完全に構成され有効になっていることを確認してください。 |
136016 | ERROR | The selected server $me is not the primary/source system for SAP HANA System Replication for the selected SID $sid and HDB instance $instance. Please select ‘Cancel’ and start this action on the primary/source HANA System Replication system. | 原因: リソースの作成が、HANAシステムレプリケーションのセカンダリシステムで開始されている。 処置: HANAシステムレプリケーションのプライマリシステムで作成操作を開始してください。 |
136031 | ERROR | END failed extend of resource $target_tag on server $me with return value of $err_code. | 原因: SAP HANAリソースの拡張中に問題が発生した。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース拡張操作を再試行してください。 |
136033 | ERROR | Usage: $usage | 原因: SAP HANA extendスクリプトに無効な引数が指定された。 処置: 次の形式で適切な引数を指定してください: |
136035 | ERROR | Template resource $template_tag on server $template_sys does not exist. | 原因: 拡張するテンプレートSAP HANAリソースがテンプレートサーバー上に存在しない。 処置: テンプレートサーバー上に、拡張されているSAP HANAリソースが存在することを確認してください。 |
136036 | ERROR | Resource with matching id $target_id already exists on server $me for App $app_type and Type $res_type. | 原因: 同じLifeKeeper IDのSAP HANAリソースがターゲットシステムにすでに存在する。 処置: SAP HANAデータベースが、ターゲットサーバー上のLifeKeeperによってすでに保護されているかどうかを確認してください。 |
136037 | ERROR | Resource with matching tag $target_tag already exists on server $me for App $app_type and Type $res_type | 原因: 同じLifeKeeperリソースタグを持つSAPリソースがターゲットサーバーに既に存在する。 処置: SAP HANAデータベースが、ターゲットサーバー上のLifeKeeperによってすでに保護されているかどうかを確認してください。 |
136039 | ERROR | Error creating resource $target_tag on system $me. | 原因: ターゲットサーバーで同等のSAP HANAリソースを作成できなかった。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース拡張操作を再試行してください。 |
136040 | ERROR | The target tag ($target_tag) and template tag ($template_tag) must be the same. | 原因: プライマリシステムで使用されるリソースタグ名が、セカンダリシステムで使用されるリソースタグ名と異なる。 両方の名前は同じでなければならない。 処置: リソースの作成では、プライマリシステムタグおよびセカンダリシステムタグと同じ名前を使用してください。 |
136045 | ERROR | Cannot extend resource $template_tag to server $me. | 原因: SAP HANA canextendスクリプトは、リソースを特定のターゲットシステムに拡張できないことを示している。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース拡張操作を再試行してください。 |
136047 | ERROR | Usage: $usage | 原因: SAP HANA canextendスクリプトに無効な引数が指定された。 処置: 次の形式で適切な引数を指定してください: |
136048 | ERROR | Resource $template_tag does not exist on server $template_sys. | 原因: 拡張するテンプレートSAP HANAリソースがテンプレートサーバー上に存在しない。 処置: テンプレートサーバー上に、拡張しているSAP HANAリソースが存在することを確認してください。 |
136049 | ERROR | The system user $hana_user does not exist on server $me. | 原因: SAP HANAデータベースのSAP管理ユーザーが、指定されたサーバーに存在しない。 処置: SAP HANAが正しくインストールおよび構成されていることを確認してください。 |
136050 | ERROR | The user id for user $hana_user ($template_uid) on template server $template_sys is not the same as user id ($uid) on target server $me. | 原因: SAP管理ユーザーのユーザーIDが、テンプレートサーバーとターゲットサーバーで異なっている。 処置: SAPのHANAがクラスター内のすべてのサーバーに適切にインストールおよび構成されていることを確認してください。 |
136051 | ERROR | The group id for user $hana_user ($template_gid) on template server $template_sys is not the same as group id ($gid) on target server $me. | 原因: SAP管理ユーザーのグループIDが、テンプレートサーバーとターゲットサーバーで異なっている。 処置: SAPのHANAがクラスター内のすべてのサーバーに適切にインストールおよび構成されていることを確認してください。 |
136052 | ERROR | The home directory for user $hana_user ($template_home) on template server $template_sys is not the same as home directory ($user_home) on target server $me. | 原因: SAP管理ユーザーのホームディレクトリが、テンプレートサーバーとターゲットサーバーで異なっている。 処置: SAPのHANAがクラスター内のすべてのサーバーに適切にインストールおよび構成されていることを確認してください。 |
136053 | ERROR | The SAP HANA instance $instance does not exist for $sid on server $me. | 原因: 指定されたSAP HANAデータベースインスタンスのインストールディレクトリが見つからなかった。 処置: SAPのHANAがクラスター内のすべてのサーバーに適切にインストールおよび構成されていることを確認してください。 |
136055 | ERROR | The SAP HANA site name $target_obj->{‘site_name’} on server $me must be different from site name $template_obj->{‘site_name’} on $template_obj->{‘sys’}. | 原因: SAP HANAシステムレプリケーションのサイト名が、プライマリサーバーとセカンダリサーバーの両方で同じになっている。 処置: セカンダリサーバー上のSAP HANAデータベースを停止し、hdbnsutilユーティリティを使用して、別のサイト名でセカンダリレプリケーションサイトを再登録してください。 |
136056 | ERROR | Unable to obtain SAP HANA System Replication parameters for database $instance on server $me. Please verify that SAP HANA System Replication is enabled and properly configured and that the database instance is running on all servers in the cluster. | 原因: 指定されたシステム上のデータベースのSAP HANAシステムレプリケーションパラメーターを決定できなかった。 処置: SAP HANAシステムレプリケーションが有効で適切に構成されていること、およびデータベースがクラスター内のすべてのサーバーで実行されていることを確認してください。 |
136057 | ERROR | Unable to create a HANA object for database $instance on server $me. Please verify that database instance $instance is properly installed. | |
136083 | ERROR | Usage: $usage | 原因: SAP HANA deleteスクリプトの引数が無効。 処置: 有効なHANA LifeKeeperリソースタグ名とリソースIDの両方を入力してください。 |
136160 | ERROR | Unable to create SAP HANA object. The SID and instance for the SAP HANA database must be provided. | 原因: SAP HANAオブジェクトの作成中に、SAP SIDまたはSAP HANAインスタンス名のいずれかが欠落していた。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136161 | ERROR | Unable to create SAP HANA object. Resource system name and tag name must be provided. | 原因: SAP HANAオブジェクトの作成中に、システム名またはリソースタグ名のいずれかが欠落していた。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136162 | ERROR | Could not find any information regarding resource $tag on $sys. | 原因: 指定されたタグを持つSAP HANAリソースに関する情報を取得できなかった。 処置: 指定されたタグを持つSAP HANAリソースが指定されたサーバーに存在することを確認してください。 |
136168 | ERROR | Unable to check status of SAP Host Agent on server $self->{‘sys’}. Command \"$curr_cmd\" returned exit code $ret. | 原因: 指定されたサーバーでSAP Host Agentプロセスのステータスを判別できなかった。 処置: 詳細については、SAP Host Agentトレースファイル(dev_saphostexecなど)を確認してください。 |
136174 | ERROR | Unable to create SAP HANA object. The SID, instance, or one of the SAP HANA system replication values is missing. | 原因:SAP HANAオブジェクトの作成時に、SAP SID、SAP HANAインスタンス名、またはSAP HANAシステムレプリケーション値のいずれかが欠落していた。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136178 | ERROR | Attempt to register server $node as the secondary SAP HANA System Replication site for database $self->{‘instance’} failed with exit code $ret. | 原因: 指定されたサーバーを、指定されたデータベースのセカンダリSAP HANAシステムレプリケーションサイトとして登録できなかった。 処置: 詳細については、SAP HANAトレースファイル(例:nameserver_<hostname>.xxxxx.xxx.trc)を確認してください。 |
136182 | ERROR | Failed to $flg_action flag \"${HANA_FLAG_DATA_OUT_OF_SYNC}_$eqv_tag{$sys}\" on server $sys. | 原因: 指定されたサーバーで !HANA_DATA_OUT_OF_SYNC_<tag> フラグを作成または削除できなかった。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136190 | ERROR | Failed to start SAP Host Agent processes on server $self->{‘sys’}. Command \"$hostagent_cmd\" returned $ret. | 原因: 指定されたサーバーでSAP Host Agentプロセスを開始できなかった。 処置: 詳細については、SAP Host Agentトレースファイル(dev_saphostexecなど)を確認してください。 |
136191 | ERROR | Failed to start SAP OS Collector process on server $self->{‘sys’}. Command \"$oscol_cmd\" returned $ret. | 原因: 指定されたサーバーでSAP OS Collectorプロセスを開始できなかった。 処置: 詳細については、SAP OSコレクタートレースファイル(dev_collなど)を確認してください。 |
136193 | ERROR | Takeover of SAP HANA System Replication for SAP HANA database $self->{‘instance’} failed on server $node with exit code $ret. | 原因: SAP HANAシステムレプリケーションで、指定されたデータベースのプライマリマスターとして指定されたサーバーを登録できなかった。 処置: 詳細については、SAP HANAトレースファイル(例:nameserver_<hostname>.xxxxx.xxx.trc)を確認してください。 |
136197 | ERROR | Update of resource info field for $eqv_tag{$sys} on $sys failed with exit code $setinfo_ret. Current info: [$info]. Attempted new info: [$new_info]. | 原因: 指定されたサーバー上の指定されたリソースの情報フィールドを更新できなかった。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136202 | EMERG | Failed to disable Autostart for SAP HANA instance $self->{‘instance’} on server $sys with exit code $remexec_ret. Please manually set \"Autostart = 0\" in the instance profile $profile on $sys. | 原因: Autostartパラメーターの値を、指定されたサーバー上の指定されたHDBインスタンスプロファイルで変更できなかった。 処置: HDBインスタンスプロファイルを手動で編集し、「Autostart = 0」に設定してください。 |
136205 | ERROR | Failed start of SAP Start Service for SAP HANA database $instance on server $sys. | 原因: 指定されたSAP HANAデータベースのSAP Start Serviceの開始に失敗した。 処置: 詳細については、SAP Start Serviceトレースファイル(sapstartsrv.logなど)を確認してください。 |
136208 | ERROR | LifeKeeper was unable to determine the SAP HANA System Replication mode for database $rem_obj->{‘instance’} on server $rem_obj->{‘sys’} while attempting to identify the previous primary replication site. Please resolve the issue and bring the SAP HANA resource in-service on the system where the database should be registered as primary master. | 原因: 指定されたサーバーでSAP HANAシステムレプリケーションモードを判別できず、以前のプライマリレプリケーションサイトを特定できなかった。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136210 | ERROR | Failed start of SAP Start Service for SAP HANA database $rem_obj->{‘instance’} on server $rem_obj->{‘sys’}. Unable to stop the database on the server where it is currently registered as primary master. | 原因: 指定されたサーバー上の指定されたSAP HANAデータベースのSAP Start Serviceの開始に失敗し、その結果現在のプライマリSAP HANAシステムレプリケーションサイトでデータベースを停止できなかった。 処置: 詳細については、SAP Start Serviceトレースファイル(sapstartsrv.logなど)を確認してください。 |
136212 | ERROR | Failed stop of SAP HANA database $rem_obj->{‘instance’} on server $rem_obj->{‘sys’} where it is currently registered as primary master. | 原因: 指定されたサーバー上の指定されたSAP HANAデータベースの停止に失敗した。 処置: 詳細については、SAP HANAトレースファイルとLifeKeeperログファイルを確認してください。 |
136217 | ERROR | Failed start of SAP HANA database $instance on server $sys. | 原因: 指定されたサーバー上の指定されたSAP HANAデータベースの起動に失敗した。 処置: 詳細については、SAP HANAトレースファイルとLifeKeeperログファイルを確認してください。 |
136220 | ERROR | Unable to register $sys as a secondary SAP HANA System Replication site for database $instance. The host name of the current primary replication site was not provided. | 原因: セカンダリレプリケーションサイトの登録時に、現在のプライマリSAP HANAシステムレプリケーションサイトのホスト名を入力しなかった。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136233 | EMERG | WARNING: A temporary communication failure has occurred between servers $self->{‘sys’} and $rem_obj->{‘sys’}. Manual intervention is required in order to minimize the risk of data loss. To resolve this situation, please take one of the following resource hierarchies out of service: $self->{‘tag’} on $self->{‘sys’} or $rem_obj->{‘tag’} on $rem_obj->{‘sys’}. The server that the resource hierarchy is taken out of service on will become the secondary SAP HANA System Replication site. | 原因: 一時的な通信障害により、指定された同等のHANAリソースがそれぞれのホストサーバーで同時にIn Serviceになった。 処置: セカンダリレプリケーションサイトになるサーバーで、HANAリソース階層全体をOut of Serviceにします。そのサーバーでデータベースが停止されると、LifeKeeperは次のquickCheckサイクル中にデータベースをセカンダリレプリケーションサイトとして自動的に登録します。 |
136234 | EMERG | WARNING: SAP HANA database $self->{‘instance’} is running and registered as primary master on both $self->{‘sys’} and $rem_obj->{‘sys’}. Manual intervention is required in order to minimize the risk of data loss. To resolve this situation, please leave resource $self->{‘tag’} in-service on $self->{‘sys’} and stop database $self->{‘instance’} on $rem_obj->{‘sys’} by running the command \‘su – $rem_obj->{‘sid_admin’} -c \"sapcontrol -nr $rem_obj->{‘instance_number’} -function Stop\"\’ on that server. Once stopped, it will become the secondary SAP HANA System Replication site. | 原因: 指定されたSAP HANAデータベースが、2つのクラスターサーバーで同時にプライマリマスターとして実行および登録されている。 処置: メッセージに示されているコマンドを使用して、スタンバイサーバー上のデータベースを停止します。データベースが停止すると、LifeKeeperは自動的にスタンバイサーバーをセカンダリレプリケーションサイトとして登録します。 |
136238 | ERROR | Unable to create SAP HANA object. Resource system name and tag name must be provided. | 原因: SAP HANAオブジェクトの作成時に、サーバー名またはリソースタグ名のいずれかが欠落していた。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136239 | ERROR | Failed start of SAP Start Service for SAP HANA database $obj->{‘instance’} on server $obj->{‘sys’}. Unable to determine status of the database on $obj->{‘sys’}. | 原因: 指定されたサーバー上の指定されたSAP HANAデータベースのSAP Start Serviceの開始に失敗し、その結果データベースのステータスを判別できなかった。 処置: 詳細については、SAP Start Serviceトレースファイル(sapstartsrv.logなど)を確認してください。 |
136242 | ERROR | Unable to create SAP HANA object. At least one of the SAP HANA System Replication values is missing. | |
136243 | ERROR | Unable to locate the pingnfs utility ($pingnfs) on server $me. Please verify that this utility exists and is executable. | |
136245 | ERROR | Critical NFS shares being exported by server $sys ($export_list) are not currently available. Please verify that the NFS server is alive and that all NFS-related services are running. | |
136248 | ERROR | Unable to open file $crit_mount_file on server $me. Please verify that this file exists and is read-enabled. | |
136263 | ERROR | Usage: $usage | 原因: SAP HANAリソースのリストアスクリプトの引数が無効。 処置:次の形式で適切な引数を指定してください: |
136265 | ERROR | Error getting resource information for $tag on server $me. | 原因: 指定されたサーバーの指定されたSAP HANAリソースに関する情報を取得できなかった。 処置:指定されたタグを持つSAP HANAリソースが指定されたサーバーに存在することを確認してください。 |
136266 | ERROR | The resource $tag protecting SAP HANA database $instance is not in sync. To protect the data LifeKeeper will not restore the resource on $me. Please restore the resource on the previous source server to allow the resync to complete. | 原因: SAP HANAシステムレプリケーションは、バックアップサーバー上でデータベースリソースをIn Serviceにする前に同期されていなかった。 処置: 前のプライマリサーバーでSAP HANAリソースをIn Serviceにし、再同期を完了できるようにしてください。 |
136275 | ERROR | Failed to determine SAP HANA System Replication mode for database $instance on server $me. | 原因: 指定されたサーバー上の指定されたデータベースのSAP HANAシステムレプリケーションモードを判定できなかった。 処置: 詳細については、SAP HANAトレースファイル(例:nameserver_<hostname>.xxxxx.xxx.trc)およびLifeKeeperログファイルを確認してください。 |
136351 | ERROR | Usage: $usage | 原因: SAP HANA resource quickCheckスクリプトの引数が無効。 処置: 次の形式で適切な引数を指定してください: |
136353 | ERROR | Error getting resource information for $tag. | 原因: 指定されたSAP HANAリソースに関する情報を取得できなかった。 処置: 指定されたタグを持つSAP HANAリソースが指定されたサーバーに存在することを確認してください。 |
136354 | EMERG | The replication mode of the SAP HANA database $instance corresponding to resource $tag was modified outside of LifeKeeper and is no longer registered as primary master on server $me. Please bring the SAP HANA resource in-service on the server where the database should be registered as primary master. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定されたデータベースのSAP HANAシステムレプリケーションモードが、LifeKeeperの外部で変更されている。 処置: プライマリマスターとして登録する必要があるサーバーで、SAP HANAリソースをIn Serviceにしてください。 |
136363 | EMERG | LifeKeeper was unable to determine the SAP HANA System Replication mode for database $instance corresponding to resource $tag on server $me. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定されたサーバーでSAP HANAシステムレプリケーションモードを判定できなかった。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136375 | EMERG | An NFS server exporting a critical shared file system for resource $tag is currently unavailable. Resource monitoring for $tag will be suspended until the issue is resolved. | |
136376 | EMERG | WARNING: LifeKeeper resource $tag is designed for use in situations where SAP HANA System Replication (HSR) is disabled, but HSR was found to be enabled on server $me. Please ensure that the correct LifeKeeper resource type is being used for your current SAP HANA configuration. | |
136450 | ERROR | Usage: $usage | 原因: SAP HANA removeスクリプトに無効な引数が指定されている。 処置: 次の形式で適切な引数を指定してください: |
136454 | ERROR | Error getting resource information for $tag. | 原因: 指定されたSAP HANAリソースに関する情報を取得できなかった。 処置: 指定されたタグを持つSAP HANAリソースが指定されたサーバーに存在することを確認してください。 |
136456 | ERROR | Failed start of SAP Start Service for SAP HANA database $instance on server $me. | 原因: 指定されたSAP HANAデータベースのSAP Start Serviceを開始できなかった。 処置: 詳細については、SAP Start Serviceトレースファイル(sapstartsrv.logなど)を確認してください。 |
136459 | EMERG | WARNING: LifeKeeper resource $tag is designed for use in situations where SAP HANA System Replication (HSR) is disabled, but HSR was found to be enabled on server $me. Please ensure that the correct LifeKeeper resource type is being used for your current SAP HANA configuration. | |
136550 | ERROR | Usage: $usage | 原因: HANAリソース回復スクリプトの引数が無効。 処置: 有効なHANA LifeKeeperリソースタグ名とリソースIDの両方を入力してください。 |
136555 | ERROR | Error getting resource information for $tag on server $me. | 原因: 指定されたサーバー上の指定されたHANAリソースに関する情報を取得できなかった。 処置: サーバーがオンラインで、LifeKeeperが実行されており、HANAリソースが存在することを確認してください。 |
136556 | EMERG | The replication mode of the SAP HANA database $instance corresponding to resource $tag was modified outside of LifeKeeper and is no longer registered as primary master on server $me. Please bring the SAP HANA resource in-service on the server where the database should be registered as primary master. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定されたデータベースのSAP HANAシステムレプリケーションモードが、LifeKeeperの外部で変更されている。 処置: プライマリマスターとして登録する必要があるサーバーで、SAP HANAリソースをIn Serviceにしてください。 |
136558 | EMERG | LifeKeeper was unable to determine the SAP HANA System Replication mode for database $instance corresponding to resource $tag on server $me. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定されたサーバー上の指定されたデータベースに対し、SAP HANAシステムレプリケーションモードを決定でなかった。 処置: 詳細については、SAP HANAトレースファイルとLifeKeeperログファイルを確認してください。 |
136559 | ERROR | Resource $tag is no longer ISP on server $me. Exiting $cmd for $tag. | 原因: 指定されたSAP HANAリソースが、指定されたサーバー上でISPではなくなった。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136650 | ERROR | Usage: $usage | 原因: SAP HANA hana_stop_all_dbs スクリプトに無効な引数が指定されている。 処置: 次の形式で適切な引数を指定してください: |
136654 | ERROR | Error getting resource information for $tag. | 原因: 指定されたSAP HANAリソースに関する情報を取得できなかった。 処置: 指定されたタグを持つSAP HANAリソースが指定されたサーバーに存在することを確認してください。 |
136658 | ERROR | Failed start of SAP Start Service for SAP HANA database $x->{‘instance’} on server $x->{‘sys’}. Could not determine status of SAP HANA DB on $x->{‘sys’}. | 原因: 指定されたSAP HANAデータベースのSAP Start Serviceの開始に失敗した。 処置: 詳細については、SAP Start Serviceトレースファイル(sapstartsrv.logなど)を確認してください。 |
136661 | ERROR | Failed stop of SAP HANA database $x->{‘instance’} on server $x->{‘sys’}. | 原因: 指定されたサーバー上の指定されたSAP HANAデータベースの停止に失敗した。 処置: 詳細については、SAP HANAトレースファイルとLifeKeeperログファイルを確認してください。 |
137000 | ERROR | PowerShell is not installed. | |
137001 | ERROR | PowerCLI is not installed. | |
137002 | ERROR | A valid network interface was not found. | |
137005 | ERROR | Failed to attach VMDK. | |
137010 | ERROR | Failed to detach VMDK. | |
137020 | ERROR | Failed to execute VMDK status checker daemon. | |
137030 | ERROR | Disk not specified. | |
137031 | ERROR | Cannot get disk uuid for $Disk. Please check your ESXi settings. | |
137032 | ERROR | PowerCLI failed. %s | |
137034 | ERROR | Cannot bring VMDK resource \"%s\" in service on server \"%s\". | |
137037 | ERROR | This system is not a VMware guest. | |
137050 | ERROR | Failed to connect to ESXi server $addr. | |
137051 | ERROR | There is no ESXi server connected. | |
137055 | ERROR | Cannot determine ESXi VM ID because multiple network interfaces were found with the MAC address $MAC_ADDR. | |
137057 | ERROR | Usable SCSI controller not found. | |
137058 | ERROR | Cannot find VMDK with ID $UUID. | |
137059 | ERROR | This guest has snapshots present. | |
137060 | ERROR | The VMDK with ID $UUID cannot be attached to this guest. | |
137061 | ERROR | The virtual storage controller has an incompatible sharing mode configured. | |
137068 | ERROR | The VMDK detection failed. Retry count exceeded. | |
137070 | ERROR | Connect failed. | |
137071 | ERROR | Get-LocalVM failed. | |
137072 | ERROR | The VMDK has been detached remotely. This server has lost ownership. | |
137075 | ERROR | Cannot find virtual SCSI controller $CONTROLLER. | |
137076 | ERROR | The virtual storage controller has an incompatible sharing mode configured. | |
137077 | ERROR | Cannot find VM with MAC address $MAC_ADDR. | |
137078 | ERROR | Cannot find VM with MAC address $MAC_ADDR. | |
137101 | WARN | Partition information not defined for %s on %s. Retry. | |
137102 | ERROR | Partition information not defined for %s on %s. | |
137105 | ERROR | Device not specified. | |
137106 | ERROR | Cannot get device uuid for $Device. Please check your ESXi settings. | |
137107 | ERROR | %s is not shareable with any machine. | |
137111 | ERROR | Failed to create dependency \"%s\"-\"%s\" on machine \"%s\". | |
137112 | ERROR | Cannot bring VMDKP resource \"%s\" in service on server \"%s\". |
このトピックへフィードバック